Künstliche Intelligenz
Mac & i 1/2026: KI nutzen, kostenlose Apps, AirPods-Tipps, Netzteile im Test
Die neue Mac & i ist da! Heute bekommen Sie die Ausgabe 1/2026 vorab im heise shop (sowohl im Print-Format, als auch als PDF), ab Freitag gibt es sie im gut sortierten Kiosk und im Bahnhofsbuchhandel. Das Heft enthält unter anderem folgende Themen:
Weiterlesen nach der Anzeige
KI nutzen
Einem KI-Dienst eine Frage oder Aufgabe zu stellen, das benötigt keine besonderen Kenntnisse. Steigt man tiefer in das Thema ein, wird es schnell kompliziert: Wie nutzt man in iOS ChatGPT statt Siri? Lohnt sich das Abo von Gemini mehr als das von ChatGPT? Was steckt hinter Apples Werbeversprechen, die Hardware tauge für lokale KI-Modelle? In unserem Schwerpunkt bringen wir Licht ins Dunkel.
AirPods & die Live-Übersetzung
Nach Europa brachte Apple die Live-Übersetzung der AirPods ein paar Monate verspätet. Apple-Manager verrieten im Gespräch mit der Mac & i die Gründe und weitere Details zu dieser Funktion. Zudem liefern wir viele Tipps zu den Kopfhörern, von der Kamera-Remote bis hin zur Dolmetscher-Funktion.

Ein Blick in die Mac & i 1/2026.
Freeware-Perlen für den Mac
Von Hintergrundprozesse analysieren über Ordnung in die Menüleiste bringen bis hin zu sauberer Deinstallation von Apps: Wir empfehlen 21 Anwendungen, die macOS komfortabler machen.
Weiterlesen nach der Anzeige
Weitere Themen der Mac & i 1/2026
- Quick Look von macOS ausreizen
- Wie KI in Photoshop und Lightroom hilft
- Tastenkürzel-Speed für iPhone & iPad
- Multiport-Netzteile fürs MacBook und iPad im Test
- Smarte Thermostate im Vergleich
- Schnelles Heimnetz: 10-Gbit-Switches
- USB-C-Kabel: Warum Sie immer das falsche anschließen
- Mit Metal 4 die grafische Performance steigern
…und vieles mehr.
Die Mac & i können Sie im heise Shop erwerben (in den ersten Tagen nach der Veröffentlichung versandkostenfrei), im Browser lesen oder in der Mac & i-App für iPhone und iPad, Android-Geräten und Kindle Fire laden.
Letzte Gelegenheit: Mac & i zum Preis von 2025 abonnieren
In Kürze steigt der Preis der Druckausgabe. Sichern Sie sich die nächsten Ausgaben im Jahresabo noch schnell zum bisherigen Preis, sofern Sie die Hefte noch nicht regelmäßig bekommen.
Abonnenten kennen einige Beiträge aus dem neuen Heft bereits, denn sie lesen Mac & i bei heise+ ohne Aufpreis – darunter auch die vorab veröffentlichten Artikel. Voraussetzung für den Zugriff ist lediglich, dass Sie Ihr Abo mit Ihrem heise-online-Account verknüpfen. Dazu rufen Sie bitte die Seite „Meine Benutzerdaten“ auf und klicken im Bereich links auf „Abonnements“.
Kennen Sie schon unsere Webinare?
Unter dem Dach von heise conferences bieten wir Online-Live-Webinare an. Eine ständig aktualisierte Übersicht finden Sie auf der Mac & i Webinarseite. Die nächsten Termine:
(tre)
Künstliche Intelligenz
Fauna Robotics bringt humanoiden Roboter Sprout für Forschung und Entwicklung
Das US-amerikanische Robotikunternehmen Fauna Robotics hat die humanoide Roboter-Plattform Sprout entwickelt, die als Basis für Forschung und Entwicklung eingesetzt werden kann. Die Ausrichtung des Roboters liegt allerdings nicht auf industrieller Arbeit, sondern eher auf Anwendungen im Haushalt, sozialer Interaktion und Freizeitvergnügen.
Weiterlesen nach der Anzeige
Sprout ist 107 cm groß und wiegt lediglich 22,7 kg. Durch sein relativ geringes Gewicht kann er auch mal von einem Ort zum anderen getragen werden. Das muss allerdings nicht sein, denn der humanoide Roboter kann out-of-the-box selbst laufen und auch Treppen steigen.
Insgesamt besitzt Sprout 29 Freiheitsgrade: jeweils 5 an den Beinen und Füßen und je 6 an den 48 cm langen Armen. Die Hände sind als 3-Finger-Greifer ausgelegt. Zusätzlich kann er den Kopf und Oberkörper drehen und neigen. Zwei bewegliche, antennenförmige Augenbrauen verleihen dem Roboter eine individuelle Note.
Der Körper aus Aluminium und Komposit-Materialien ist vollständig mit einem weichen, gummiartigen Material überzogen. Sollte es trotz der integrierten Sicherheitsmaßnahmen doch mal zum physischen Kontakt mit einem Menschen kommen, dann dürfte der weniger schmerzhaft ausfallen.
Sprout soll Gewichte bis zu 11,2 kg stemmen können, das jedoch nur kurzzeitig, weniger als 10 Sekunden, und nur in einer bestimmten Armstellung. Der Umgang mit Objekten bis zu rund einem Kilogramm soll dagegen dauerhaft möglich sein. Zu den verwendeten Aktuatoren macht Fauna Robotics keine Angaben.
Das Hirn der Robotersteuerung bildet die CPU Nvidia Jetson AGX Orin 64 GB. Als Speicher dient eine 1 TByte NVMe SSD. An Kameras und Sensoren hat Sprout eine ZED 2i RGB-D-Stereo-Kamera, 4 VL53L8CX-8×8-Zonen-Distanz-Sensoren, eine 9-Achsen-IMU (Inertial Measurement Unit) und ein Mikrofon-Array zur akustischen Raumerfassung an Bord.
Programmierung und Training
Weiterlesen nach der Anzeige
Eine Verbindung zum Roboter kann über Wi-Fi 5.2 oder per Ethernet hergestellt werden. Der Roboter arbeitet zwar autark, kann über die Datenanbindung aber auch ferngesteuert und trainiert werden. Für die Entwicklung von Roboteranwendungen stellt Fauna Robotics ein SDK zur Verfügung. Die Programmierung erfolgt in Python und über C++ APIs. Bei der Visualisierung hilft das Visualisierungs- und Management-Tool Foxglove für Roboter. Die Roboterarchitektur ist kompatibel mit Nvidia Isaac Sim, Gazebo und MuJoCo, um Simulationen durchzuführen und den Roboter trainieren zu können.
Angetrieben wird Sprout von einer Lithium-Ionen-Batterie mit 5000 mAh oder 10.000 mAh. Die Laufzeit des Roboters beträgt mit der stärkeren Batterievariante zwischen 3 und 3,5 Stunden.
Fauna Robotics sieht den Roboter als Entwicklungsplattform und zum Einsatz in Haushalten. Als Plattform zur Entwicklung industrieller Anwendungen ist er allerdings aufgrund seiner physischen Einschränkungen nicht geeignet. Vielmehr soll Sprout als sozialer Roboter und für leichte Tätigkeiten zu Hause einsetzbar sein. Der Preis von Sprout dürfte für durchschnittliche Haushalte allerdings zu hoch sein: Er liegt bei rund 50.000 US-Dollar.
(olb)
Künstliche Intelligenz
Meike Kamp: „DSGVO-Änderungen rütteln an den Grundpfeilern des Datenschutzes“
Die Berliner Datenschutzbeauftragte Meike Kamp hat die Reformvorschläge der EU-Kommission zur Datenschutz‑Grundverordnung (DSGVO) scharf kritisiert. Die geplanten Änderungen an der Definition personenbezogener Daten griffen den Kern des europäischen Datenschutzrechts an. Zudem gingen sie über die bisherige Rechtsprechung des Europäischen Gerichtshofs hinaus, sagte Kamp, die am Mittwoch zu einer Veranstaltung anlässlich des EU-Datenschutztags nach Berlin einlud.
Weiterlesen nach der Anzeige
„Über allem hängt die Frage, wann sind Daten noch personenbezogen und ist die Datenschutz-Grundverordnung anwendbar oder nicht mehr“, so Kamp. Über viele Jahre habe sich die Diskussion „vom absoluten Personenbezug und hin zu den Fragen, wer über Mittel zur Identifizierung verfügt, welche Perspektive für die Beurteilung des Personenbezugs relevant ist und wie hoch das Risiko der Re-Identifizierung sein darf“.
Unternehmen müssen Verantwortung bei Datenhaltung tragen
Dabei verwies Kamp auch auf das SRB-Urteil des Europäischen Gerichtshofs. Dieses werde aus ihrer Sicht häufig verkürzt gelesen. „Dieser Befürchtung tritt der EuGH im SRB‑Urteil entgegen und sagt, dass diese Übermittlung an den ,unwissenden‘ Empfänger sich insbesondere im Zusammenhang mit einer etwaigen späteren Übermittlung an Dritte nicht auf die Beurteilung der Personenbezogenheit der Daten auswirkt“, sagte Kamp.
Die EU‑Kommission ziehe daraus jedoch andere Schlüsse: „Die Kommission formuliert, vereinfacht gesprochen, dass Informationen nicht allein deshalb personenbezogen werden, weil ein potenzieller nachfolgender Empfänger über Mittel verfügt, die betroffene Person zu identifizieren“, so Kamp. Mit dem Entwurf eines neuen Erwägungsgrundes werde erläutert, „dass eine mögliche Weitergabe an ,wissende‘ Dritte die Informationen nur für diejenigen Dritten zu personenbezogenen Daten machen“.
Nach dieser Lesart wären die Daten beim Empfänger nicht mehr als personenbezogen einzustufen und würden aus dem Datenschutzrecht herausfallen. „Das hätte gravierende Folgen“, sagte Kamp mit Blick auf datengetriebene Geschäftsmodelle wie die Online‑Werbung.
Kritik an geplanten Änderungen beim Personenbezug
Weiterlesen nach der Anzeige
Am Beispiel von Real‑Time‑Bidding bei Werbeplätzen auf Websites verdeutlichte Kamp das Dilemma. Grundlage seien „eine Vielzahl von Akteuren in einer verzweigten Datenverarbeitungskette“. Mithilfe von Cookies oder Werbe‑IDs sei es möglich, Daten einzelner Nutzer zusammenzuführen.
„Die geplanten Änderungen dürfen nicht dazu führen, dass künftig zahlreiche Datenverarbeitungen aus dem Anwendungsbereich des Datenschutzrechts herausfallen“, warnte Kamp. „Die EU‑Kommission rüttelt mit der Änderung der Definition personenbezogener Daten an den Grundpfeilern des Datenschutzes. Das halte ich nicht für den richtigen Weg.“
Diese Einschätzung teilte auch der neue Vorsitzende der Datenschutzkonferenz, Prof. Tobias Keber. Der Eindruck, der digitale Omnibus gieße lediglich die bestehende EuGH‑Rechtsprechung in Gesetzesform, sei aus seiner Sicht irreführend. „Wenn man nicht nur das SRB‑Urteil, sondern mehrere Entscheidungen des EuGH betrachtet, etwa auch zur Fahrzeugidentifikationsnummer, dann geht der Kommissionsvorschlag über die Rechtsprechung hinaus“, sagte Keber gegenüber heise online.
Digitale Omnibus‑Reform „nicht der richtige Rahmen“
Zudem kritisierte Keber das Verfahren. „Eine so weitreichende Änderung wie die Definition personenbezogener Daten ist keine kleine Stellschraube“, sagte er. „Für solche grundlegenden Eingriffe ist ein auf Geschwindigkeit angelegtes Omnibus‑Verfahren aus Sicht der Datenschutzkonferenz nicht der richtige Platz.“
Die DSGVO sei ein abstraktes Regelwerk, dessen Teile ineinandergreifen. „Wenn man an einer so zentralen Stelle etwas ändert, hat das in der Regel Auswirkungen an vielen anderen Stellen, das betrifft auch weitere Digital- und Rechtsakte der EU. Es bräuchte mehr Zeit, um genau zu analysieren, was diese Änderungen bewirken“, so Keber.
Forderung nach solider Pseudonymisierung
Statt einer Einschränkung des Anwendungsbereichs sprach sich Kamp für eine Stärkung von Pseudonymisierung und Anonymisierung aus. „Wir sollten den Anwendungsbereich der Datenschutz‑Grundverordnung erhalten“, sagte sie. Für Datenverarbeitungen mit guter Pseudonymisierung und geringen Auswirkungen für Betroffene solle es Erleichterungen geben. „Nicht nach dem Unerreichbaren streben oder Begrifflichkeiten aufweichen, sondern solide Pseudonymisierung wagen.“
Die Rolle von Anonymisierung und Pseudonymisierung steht im Mittelpunkt der Veranstaltung, mit der Kamp den Abschluss ihres Vorsitzes der Datenschutzkonferenz markiert. Vorgestellt wurde unter anderem ein Zwischenstand zu geplanten Anwendungshinweisen der Datenschutzkonferenz. Zudem präsentierten Forschungsprojekte aus Bereichen wie Gesundheitswesen, Mobilität und Webstatistiken praktische Ansätze zum datenschutzgerechten Umgang mit personenbezogenen Daten.
Metadaten und Sonderfälle
Darüber hinaus wurde deutlich, dass bereits Metadaten heikel sein können. Zeitstempel, Häufigkeiten, räumliche Muster oder technische Begleitinformationen können ausreichen, um Personen einzugrenzen oder erneut identifizierbar zu machen. Metadaten seien daher kein bloßer Beifang, sondern müssten bei der Bewertung von Anonymisierung und Pseudonymisierung ausdrücklich berücksichtigt werden.
Dr. Jan Daldrop von der Berliner Beauftragten für Datenschutz und Informationsfreiheit stellte den Arbeitsstand eines gemeinsamen Projekts der Datenschutzkonferenz vor, das Anwendungshinweise zur Anonymisierung und Pseudonymisierung erarbeiten soll. Anhand von Mobilitätsdaten zeigte er, dass selbst bei stark vergröberten Datensätzen Restrisiken verbleiben können – etwa bei besonderen Ereignissen wie einem Hochzeitskorso, der durch eine ungewöhnliche Kombination aus Route, Zeitpunkt und Fahrverhalten auch in anonymisierten Daten erkennbar sein könne.
Einig waren sich die Beteiligten darin, dass Anonymisierung kein Selbstläufer ist und eine fortlaufende Bewertung erfordert. Keber fasste zusammen: „Rechtssicherheit entsteht nicht durch pauschale Annahmen, sondern durch sorgfältige Einzelfallprüfung.“
(mack)
Künstliche Intelligenz
30 Jahre „Duke Nukem 3D“: Warum der Kult-Shooter auch heute noch Spaß macht
Als die Sharewarefassung von „Duke Nukem 3D“ im Januar 1996 erschien (die Vollversion folgte im April), war die Welt der Ego-Shooter noch überschaubar. id Software hatte mit „Wolfenstein 3D“ (1992) und „Doom“ (1993) das Genre erschaffen und dominiert. Die Konkurrenz witterte das große Geld und kippte in den nachfolgenden Jahren oftmals uninspirierte „me too“-Ware auf den Markt, die in der damaligen Spielepresse meist als „Doom-Klone“ zusammengefasst wurde.
Weiterlesen nach der Anzeige
Es gab allerdings einige Spiele, die aus der seelenlosen Masse herausstechen – Spiele wie LucasArts’ 1995er „Star Wars: Dark Forces“, das sich Mühe gab, das Shooter-Einerlei mit interessant gestalteten Missionen, einer spannenden Rahmenhandlung und mehr Verspieltheit aufzuhübschen. Und dann kam 3DRealms mit „Duke Nukem 3D“ um die Ecke und zeigte, dass Shooter auch einfach nur komplett wahnsinnig sein dürfen. Denn der Duke war sehr anders als die Space Marines dieser Welt: lauter, witziger und mit einer geradezu anarchischen Lust an der Grenzüberschreitung.
Die Geburt des Antihelden
Die Figur des Duke Nukem war keine Erfindung der Ego-Shooter-Ära. Genau genommen entspringt sie der Welt der Jump-n-Runs: Nachdem id Software Ende 1990 mit „Commander Keen“ bewiesen hatte, dass schnelle Plattformer im Konsolenstil auch auf den damals noch sehr behäbigen MS-DOS-PCs machbar waren, folgten dieser Innovation schnell Nachahmer. Unter anderem das von Todd Replogle entwickelte und im Sommer 1991 unter Apogee veröffentlichte „Duke Nukem“, das Ende 1993 noch einen sehr ähnlich gelagerten zweiten Teil erhalten sollte. Beide drehten sich um einen blonden Muskelprotz mit dicker Knarre, beide waren unterhaltsame Spiele, und beide verkauften sich sehr gut.
Für den dritten Teil aber hatten Replogle und sein Team deutlich ambitioniertere Pläne: Das Ganze sollte schnell sein, bunt, interaktiv, laut, krachend, komplett over the top – und vor allem 3D.
Technik als Erlebnis
Schon nach kurzer Suche landeten die Entwickler bei der „Build“-Engine, die aus den Händen des Teenagers Ken Silverman stammte. Der enthusiastische junge Coder hatte 1993 bereits „Ken’s Labyrinth“ veröffentlicht, einen netten Fantasy-Shooter mit für damalige Verhältnisse guter Grafik und vor allem interaktiven Elementen in den Wandtexturen. Gerade dieser Aspekt machte den Programmierer für 3DRealms interessant, die die gerade noch in Arbeit befindliche neue 3D-Engine namens „Build“ für „Duke Nukem 3D“ lizenzierten.

heise medien
)
Die Entwicklung des Spiels dauerte eine ganze Weile, insgesamt war „Duke Nukem 3D“ etwa zwei Jahre lang in Arbeit. Ken arbeitete die ganze Zeit über an Verbesserungen im Build-System, eine frühe (und deutlich weniger ausgereifte) Fassung der Engine kommt in den beiden Capstone-Shootern „Witchaven“ und „William Shatner’s TekWar“ zum Einsatz. Aber erst „Duke Nukem 3D“ machte Build wirklich bekannt, und der Hauptgrund dafür war die Interaktivität: Damals waren Ego-Shooter im Großen und Ganzen noch statisch. Klar, es gab immer wieder mal bedienbare Schalter oder Türen, aber die Levels an sich waren fix, sie veränderten sich nicht, und es gab in ihnen in aller Regel nichts zu tun, außer Gegner zu erledigen.
Weiterlesen nach der Anzeige
Mit „Duke Nukem 3D“ änderte sich das: Umlegbare Schalter wechseln die Beleuchtung von einzelnen Abschnitten, bestimmte Wände, Fensterscheiben und sogar ganze Levelteile lassen sich zerstören, überall laden benutzbare Objekte zum Drücken der „Benutzen“-Taste ein. Duke darf sich an Toiletten entleeren (begleitet von einem erleichterten „Ahhh… much better.“), an Wasserspendern erfrischen, Telefone benutzen, den Echtzeit-Video-Feed von Überwachungskameras einsehen oder in einem Karaoke-Club „Boooorn to be wihihihiiiild.“ grölen. Im zweiten Level „Red Light District“ steht ein Billardtisch herum, dessen Bälle man durch die Gegend klicken lassen darf, mit auf einer simplen Physikengine basierenden Resultaten. Das war für das Jahr 1996 mächtig beeindruckend.
Alles so schön hoch hier.
Genau wie die ausgeprägte Vertikalität der Levels. Shooter der Generation „Wolfenstein 3D“ fanden ausschließlich auf einer Ebene statt. „Doom“ und seinesgleichen gaukelten zwar Höhenunterschiede vor, was aber nur mit Tricks möglich war – übereinander liegende Sektoren waren da technisch nicht möglich. Das änderte sich erst mit „Star Wars: Dark Forces“, und „Duke Nukem 3D“ setzte nochmal einen obendrauf: Das Spiel beginnt auf einem Hausdach, von dem man herunterspringt, viele Treppen sorgen für Höhenunterschiede, teilweise finden ganze Levels auf vielen verschiedenen Ebenen statt, mit Schluchten, Hängebrücken und schrägen Wänden.
Trotz aller technischer Innovation war aber auch „Duke Nukem 3D“ noch ein typisches 2.5D-Spiel, dessen Levels auf zweidimensionalen Sektoren basieren und dessen Figuren platte Sprites nutzen – die Ära der auf Polygonberechnung basierenden echten 3D-Shooter begann erst später im Jahr mit der Veröffentlichung von id Softwares „Quake“.
Lesen Sie auch
Genau wie zu Hause
Ein weiteres hervorstechendes Merkmal von „Duke Nukem 3D“ war der angedeutete Realismus der Levelgestaltung. „Doom“ und seinesgleichen spielten zum großen Teil in abstrakten Szenarien wie der Hölle, was vor allem technische Gründe hatte: Die Limitierungen der 3D-Engine erlaubten keine glaubwürdig aufgebauten Echtwelt-Szenarien, wie man gut an den extrem simplen Stadtlevels aus „Doom 2“ sieht.
„Duke Nukem 3D“ dagegen schöpfte mit vollen Händen aus dem Realismusbottich. Die Spieler rennen und schießen sich durch Hochhausschluchten, Kinos, Bars, Polizeistationen und Nachtclubs, U-Bahnen fahren durch die Levels. Es gibt sogar Spiegel, die nicht nur den Raum mit all seinen Inhalten reflektieren, sondern auch den pixeligen Duke selbst – der sein Spiegelbild mit „Damn, I’m looking good.“ kommentiert. Allerdings war „Duke Nukem 3D“ nicht das erste Spiel, das dieses Sensationsfeature bot – das wenige Monate zuvor veröffentlichte „William Shatner’s TekWar“ zeigte auch schon Spiegel.
Natürlich muss man das Wort „Realismus“ mit 30 Jahren Abstand und einer entsprechenden Menge an Skepsis betrachten. Aber das, was in „Duke Nukem 3D“ zu sehen war, war für das Jahr 1996 schlicht revolutionär.
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
