Connect with us

Künstliche Intelligenz

Mac & i 1/2026: KI nutzen, kostenlose Apps, AirPods-Tipps, Netzteile im Test


Die neue Mac & i ist da! Heute bekommen Sie die Ausgabe 1/2026 vorab im heise shop (sowohl im Print-Format, als auch als PDF), ab Freitag gibt es sie im gut sortierten Kiosk und im Bahnhofsbuchhandel. Das Heft enthält unter anderem folgende Themen:

Weiterlesen nach der Anzeige

Einem KI-Dienst eine Frage oder Aufgabe zu stellen, das benötigt keine besonderen Kenntnisse. Steigt man tiefer in das Thema ein, wird es schnell kompliziert: Wie nutzt man in iOS ChatGPT statt Siri? Lohnt sich das Abo von Gemini mehr als das von ChatGPT? Was steckt hinter Apples Werbeversprechen, die Hardware tauge für lokale KI-Modelle? In unserem Schwerpunkt bringen wir Licht ins Dunkel.

Nach Europa brachte Apple die Live-Übersetzung der AirPods ein paar Monate verspätet. Apple-Manager verrieten im Gespräch mit der Mac & i die Gründe und weitere Details zu dieser Funktion. Zudem liefern wir viele Tipps zu den Kopfhörern, von der Kamera-Remote bis hin zur Dolmetscher-Funktion.



Ein Blick in die Mac & i 1/2026.

Von Hintergrundprozesse analysieren über Ordnung in die Menüleiste bringen bis hin zu sauberer Deinstallation von Apps: Wir empfehlen 21 Anwendungen, die macOS komfortabler machen.

Weiterlesen nach der Anzeige

  • Quick Look von macOS ausreizen
  • Wie KI in Photoshop und Lightroom hilft
  • Tastenkürzel-Speed für iPhone & iPad
  • Multiport-Netzteile fürs MacBook und iPad im Test
  • Smarte Thermostate im Vergleich
  • Schnelles Heimnetz: 10-Gbit-Switches
  • USB-C-Kabel: Warum Sie immer das falsche anschließen
  • Mit Metal 4 die grafische Performance steigern

…und vieles mehr.

Die Mac & i können Sie im heise Shop erwerben (in den ersten Tagen nach der Veröffentlichung versandkostenfrei), im Browser lesen oder in der Mac & i-App für iPhone und iPad, Android-Geräten und Kindle Fire laden.

In Kürze steigt der Preis der Druckausgabe. Sichern Sie sich die nächsten Ausgaben im Jahresabo noch schnell zum bisherigen Preis, sofern Sie die Hefte noch nicht regelmäßig bekommen.

Abonnenten kennen einige Beiträge aus dem neuen Heft bereits, denn sie lesen Mac & i bei heise+ ohne Aufpreis – darunter auch die vorab veröffentlichten Artikel. Voraussetzung für den Zugriff ist lediglich, dass Sie Ihr Abo mit Ihrem heise-online-Account verknüpfen. Dazu rufen Sie bitte die Seite „Meine Benutzerdaten“ auf und klicken im Bereich links auf „Abonnements“.

Unter dem Dach von heise conferences bieten wir Online-Live-Webinare an. Eine ständig aktualisierte Übersicht finden Sie auf der Mac & i Webinarseite. Die nächsten Termine:


(tre)



Source link

Künstliche Intelligenz

Nach 30 Jahren Entwicklungszeit: GNU gettext 1.0 ist fertig


Das Internationalisierungs-Framework GNU gettext hat mit Version 1.0 einen Meilenstein erreicht. Das Release folgt auf Version 0.26 vom Juli 2025 und markiert damit nach über drei Jahrzehnten Entwicklungsarbeit einen Wendepunkt für das weitverbreitete Lokalisierungs-Tool.

Weiterlesen nach der Anzeige

Sun Microsystems hatte Anfang der 1990er-Jahre mit der Entwicklung von gettext begonnen. 1995 entwickelte Ulrich Drepper für das GNU-Projekt eine eigenständige Implementierung auf Basis von Suns Konzept. Seitdem hat sich das Framework zum Standard für die mehrsprachige Integration in Open-Source-Software etabliert. Projekte wie KDE, LibreOffice, Godot Engine oder Weblate verwalten mit gettext ihre Übersetzungen.

Die wichtigste Neuerung in Version 1.0 ist die Integration von Large Language Models (LLMs) für maschinelle Vorabübersetzungen. Mit den beiden neuen Programmen msgpre und spit können Entwickler lokale LLMs nutzen, um PO-Dateien automatisch zu übersetzen. Während msgpre komplette PO-Dateien verarbeitet, wendet spit die maschinelle Übersetzung auf einzelne Nachrichten an.

Die Maintainer Bruno Haible und Daiki Ueno weisen in der Dokumentation allerdings ausdrücklich darauf hin, dass Anwender die Lizenzierung der verwendeten LLMs prüfen müssen. Die Modelle sollten GPL-kompatibel und im Sinne freier Software nutzbar sein. Durch die lokale Installation bleibt die Kontrolle über die zu übersetzenden Texte beziehungsweise die Daten beim Nutzer.

Neben der LLM-Integration bringt gettext 1.0 Verbesserungen beim Handling von PO-Dateien. Das neue Programm po-fetch lädt übersetzte PO-Dateien automatisch von Übersetzungsprojekt-Websites herunter. Das vereinfacht den Synchronisations-Workflow, da Maintainer nicht mehr manuell nach aktualisierten Übersetzungen suchen müssen.

Weiterlesen nach der Anzeige

Die Parser für PO-Dateien wurden robuster und behandeln jetzt Sonderfälle wie Zeilenumbrüche in msgstr, Plural-Forms und Header-Einträge zuverlässiger. Für die Programmiersprachen Rust und OCaml gibt es eine erweiterte Unterstützung. Details finden sich in der Ankündigung der Version 1.0.

Dass gettext so lange im 0.x-Status verblieb, liegt an der konservativen Entwicklungsphilosophie des GNU-Projekts. Das Framework basiert auf dem Uniforum-Standard von 1988, GNU wählte dabei einen message-as-key-Ansatz aufgrund der größeren Einfachheit. Über die Jahre stand die Stabilität der API im Vordergrund, wie es bei kritischer Infrastruktur-Software typisch ist.

Die neuen Features in Version 1.0 sind optional und beeinträchtigen die Rückwärtskompatibilität nicht. Bestehende Workflows mit xgettext, msgmerge und msgfmt funktionieren unverändert weiter. Für Maintainer wichtig: PO-Dateien bleiben nun unverändert wie von Übersetzern eingereicht, statt automatisch mit dem POT-File synchronisiert zu werden – das vermeidet Merge-Konflikte und reduziert die Commits. Linux-Distributionen können problemlos auf die neue Version aktualisieren, da die Kernfunktionalität stabil bleibt.

Der Quellcode von gettext 1.0 steht auf den GNU-FTP-Servern zum Download bereit. Die LLM-Tools erfordern eine lokale Installation eines kompatiblen Sprachmodells.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Fauna Robotics bringt humanoiden Roboter Sprout für Forschung und Entwicklung


Das US-amerikanische Robotikunternehmen Fauna Robotics hat die humanoide Roboter-Plattform Sprout entwickelt, die als Basis für Forschung und Entwicklung eingesetzt werden kann. Die Ausrichtung des Roboters liegt allerdings nicht auf industrieller Arbeit, sondern eher auf Anwendungen im Haushalt, sozialer Interaktion und Freizeitvergnügen.

Weiterlesen nach der Anzeige

Sprout ist 107 cm groß und wiegt lediglich 22,7 kg. Durch sein relativ geringes Gewicht kann er auch mal von einem Ort zum anderen getragen werden. Das muss allerdings nicht sein, denn der humanoide Roboter kann out-of-the-box selbst laufen und auch Treppen steigen.

Insgesamt besitzt Sprout 29 Freiheitsgrade: jeweils 5 an den Beinen und Füßen und je 6 an den 48 cm langen Armen. Die Hände sind als 3-Finger-Greifer ausgelegt. Zusätzlich kann er den Kopf und Oberkörper drehen und neigen. Zwei bewegliche, antennenförmige Augenbrauen verleihen dem Roboter eine individuelle Note.

Der Körper aus Aluminium und Komposit-Materialien ist vollständig mit einem weichen, gummiartigen Material überzogen. Sollte es trotz der integrierten Sicherheitsmaßnahmen doch mal zum physischen Kontakt mit einem Menschen kommen, dann dürfte der weniger schmerzhaft ausfallen.

Sprout soll Gewichte bis zu 11,2 kg stemmen können, das jedoch nur kurzzeitig, weniger als 10 Sekunden, und nur in einer bestimmten Armstellung. Der Umgang mit Objekten bis zu rund einem Kilogramm soll dagegen dauerhaft möglich sein. Zu den verwendeten Aktuatoren macht Fauna Robotics keine Angaben.

Das Hirn der Robotersteuerung bildet die CPU Nvidia Jetson AGX Orin 64 GB. Als Speicher dient eine 1 TByte NVMe SSD. An Kameras und Sensoren hat Sprout eine ZED 2i RGB-D-Stereo-Kamera, 4 VL53L8CX-8×8-Zonen-Distanz-Sensoren, eine 9-Achsen-IMU (Inertial Measurement Unit) und ein Mikrofon-Array zur akustischen Raumerfassung an Bord.

Weiterlesen nach der Anzeige

Eine Verbindung zum Roboter kann über Wi-Fi 5.2 oder per Ethernet hergestellt werden. Der Roboter arbeitet zwar autark, kann über die Datenanbindung aber auch ferngesteuert und trainiert werden. Für die Entwicklung von Roboteranwendungen stellt Fauna Robotics ein SDK zur Verfügung. Die Programmierung erfolgt in Python und über C++ APIs. Bei der Visualisierung hilft das Visualisierungs- und Management-Tool Foxglove für Roboter. Die Roboterarchitektur ist kompatibel mit Nvidia Isaac Sim, Gazebo und MuJoCo, um Simulationen durchzuführen und den Roboter trainieren zu können.

Angetrieben wird Sprout von einer Lithium-Ionen-Batterie mit 5000 mAh oder 10.000 mAh. Die Laufzeit des Roboters beträgt mit der stärkeren Batterievariante zwischen 3 und 3,5 Stunden.

Fauna Robotics sieht den Roboter als Entwicklungsplattform und zum Einsatz in Haushalten. Als Plattform zur Entwicklung industrieller Anwendungen ist er allerdings aufgrund seiner physischen Einschränkungen nicht geeignet. Vielmehr soll Sprout als sozialer Roboter und für leichte Tätigkeiten zu Hause einsetzbar sein. Der Preis von Sprout dürfte für durchschnittliche Haushalte allerdings zu hoch sein: Er liegt bei rund 50.000 US-Dollar.


(olb)



Source link

Weiterlesen

Künstliche Intelligenz

Meike Kamp: „DSGVO-Änderungen rütteln an den Grundpfeilern des Datenschutzes“


Die Berliner Datenschutzbeauftragte Meike Kamp hat die Reformvorschläge der EU-Kommission zur Datenschutz‑Grundverordnung (DSGVO) scharf kritisiert. Die geplanten Änderungen an der Definition personenbezogener Daten griffen den Kern des europäischen Datenschutzrechts an. Zudem gingen sie über die bisherige Rechtsprechung des Europäischen Gerichtshofs hinaus, sagte Kamp, die am Mittwoch zu einer Veranstaltung anlässlich des EU-Datenschutztags nach Berlin einlud.

Weiterlesen nach der Anzeige

„Über allem hängt die Frage, wann sind Daten noch personenbezogen und ist die Datenschutz-Grundverordnung anwendbar oder nicht mehr“, so Kamp. Über viele Jahre habe sich die Diskussion „vom absoluten Personenbezug und hin zu den Fragen, wer über Mittel zur Identifizierung verfügt, welche Perspektive für die Beurteilung des Personenbezugs relevant ist und wie hoch das Risiko der Re-Identifizierung sein darf“.

Dabei verwies Kamp auch auf das SRB-Urteil des Europäischen Gerichtshofs. Dieses werde aus ihrer Sicht häufig verkürzt gelesen. „Dieser Befürchtung tritt der EuGH im SRB‑Urteil entgegen und sagt, dass diese Übermittlung an den ,unwissenden‘ Empfänger sich insbesondere im Zusammenhang mit einer etwaigen späteren Übermittlung an Dritte nicht auf die Beurteilung der Personenbezogenheit der Daten auswirkt“, sagte Kamp.

Die EU‑Kommission ziehe daraus jedoch andere Schlüsse: „Die Kommission formuliert, vereinfacht gesprochen, dass Informationen nicht allein deshalb personenbezogen werden, weil ein potenzieller nachfolgender Empfänger über Mittel verfügt, die betroffene Person zu identifizieren“, so Kamp. Mit dem Entwurf eines neuen Erwägungsgrundes werde erläutert, „dass eine mögliche Weitergabe an ,wissende‘ Dritte die Informationen nur für diejenigen Dritten zu personenbezogenen Daten machen“.

Nach dieser Lesart wären die Daten beim Empfänger nicht mehr als personenbezogen einzustufen und würden aus dem Datenschutzrecht herausfallen. „Das hätte gravierende Folgen“, sagte Kamp mit Blick auf datengetriebene Geschäftsmodelle wie die Online‑Werbung.

Weiterlesen nach der Anzeige

Am Beispiel von Real‑Time‑Bidding bei Werbeplätzen auf Websites verdeutlichte Kamp das Dilemma. Grundlage seien „eine Vielzahl von Akteuren in einer verzweigten Datenverarbeitungskette“. Mithilfe von Cookies oder Werbe‑IDs sei es möglich, Daten einzelner Nutzer zusammenzuführen.

„Die geplanten Änderungen dürfen nicht dazu führen, dass künftig zahlreiche Datenverarbeitungen aus dem Anwendungsbereich des Datenschutzrechts herausfallen“, warnte Kamp. „Die EU‑Kommission rüttelt mit der Änderung der Definition personenbezogener Daten an den Grundpfeilern des Datenschutzes. Das halte ich nicht für den richtigen Weg.“

Diese Einschätzung teilte auch der neue Vorsitzende der Datenschutzkonferenz, Prof. Tobias Keber. Der Eindruck, der digitale Omnibus gieße lediglich die bestehende EuGH‑Rechtsprechung in Gesetzesform, sei aus seiner Sicht irreführend. „Wenn man nicht nur das SRB‑Urteil, sondern mehrere Entscheidungen des EuGH betrachtet, etwa auch zur Fahrzeugidentifikationsnummer, dann geht der Kommissionsvorschlag über die Rechtsprechung hinaus“, sagte Keber gegenüber heise online.

Zudem kritisierte Keber das Verfahren. „Eine so weitreichende Änderung wie die Definition personenbezogener Daten ist keine kleine Stellschraube“, sagte er. „Für solche grundlegenden Eingriffe ist ein auf Geschwindigkeit angelegtes Omnibus‑Verfahren aus Sicht der Datenschutzkonferenz nicht der richtige Platz.“

Die DSGVO sei ein abstraktes Regelwerk, dessen Teile ineinandergreifen. „Wenn man an einer so zentralen Stelle etwas ändert, hat das in der Regel Auswirkungen an vielen anderen Stellen, das betrifft auch weitere Digital- und Rechtsakte der EU. Es bräuchte mehr Zeit, um genau zu analysieren, was diese Änderungen bewirken“, so Keber.

Statt einer Einschränkung des Anwendungsbereichs sprach sich Kamp für eine Stärkung von Pseudonymisierung und Anonymisierung aus. „Wir sollten den Anwendungsbereich der Datenschutz‑Grundverordnung erhalten“, sagte sie. Für Datenverarbeitungen mit guter Pseudonymisierung und geringen Auswirkungen für Betroffene solle es Erleichterungen geben. „Nicht nach dem Unerreichbaren streben oder Begrifflichkeiten aufweichen, sondern solide Pseudonymisierung wagen.“

Die Rolle von Anonymisierung und Pseudonymisierung steht im Mittelpunkt der Veranstaltung, mit der Kamp den Abschluss ihres Vorsitzes der Datenschutzkonferenz markiert. Vorgestellt wurde unter anderem ein Zwischenstand zu geplanten Anwendungshinweisen der Datenschutzkonferenz. Zudem präsentierten Forschungsprojekte aus Bereichen wie Gesundheitswesen, Mobilität und Webstatistiken praktische Ansätze zum datenschutzgerechten Umgang mit personenbezogenen Daten.

Darüber hinaus wurde deutlich, dass bereits Metadaten heikel sein können. Zeitstempel, Häufigkeiten, räumliche Muster oder technische Begleitinformationen können ausreichen, um Personen einzugrenzen oder erneut identifizierbar zu machen. Metadaten seien daher kein bloßer Beifang, sondern müssten bei der Bewertung von Anonymisierung und Pseudonymisierung ausdrücklich berücksichtigt werden.

Dr. Jan Daldrop von der Berliner Beauftragten für Datenschutz und Informationsfreiheit stellte den Arbeitsstand eines gemeinsamen Projekts der Datenschutzkonferenz vor, das Anwendungshinweise zur Anonymisierung und Pseudonymisierung erarbeiten soll. Anhand von Mobilitätsdaten zeigte er, dass selbst bei stark vergröberten Datensätzen Restrisiken verbleiben können – etwa bei besonderen Ereignissen wie einem Hochzeitskorso, der durch eine ungewöhnliche Kombination aus Route, Zeitpunkt und Fahrverhalten auch in anonymisierten Daten erkennbar sein könne.

Einig waren sich die Beteiligten darin, dass Anonymisierung kein Selbstläufer ist und eine fortlaufende Bewertung erfordert. Keber fasste zusammen: „Rechtssicherheit entsteht nicht durch pauschale Annahmen, sondern durch sorgfältige Einzelfallprüfung.“


(mack)



Source link

Weiterlesen

Beliebt