Künstliche Intelligenz
Apple AirTag 2 ist da: Besseres Finden, lauteres Piepsen
Nach knapp fünf Jahren hat Apple am Montag neue AirTags angekündigt. Die äußerlich offensichtlich unveränderte zweite Generation der Bluetooth-Tracker integriert leistungsfähigere Funkchips und sorgt für lauteres Piepsen. Mit einem neueren iPhone (ab iPhone 15, iPhone Air und iOS 26.2.1) lässt sich ein AirTag 2 demnach schon aus etwas weiterer Entfernung über die „Genaue Suche“ per Ultrabreitbandfunk in der eigenen Umgebung aufstöbern. Erstmals ist es außerdem möglich, einen AirTag auch im Nahbereich direkt von der Apple Watch (ab Series 9, Ultra 2 und watchOS 26.2.1) aus zu lokalisieren.
Weiterlesen nach der Anzeige
Apple verspricht besser hörbares AirTag-Gepiepse
Der lautere Speaker der AirTags 2 helfe dabei, einen Tracker leichter zu finden, wenn dieser etwa zwischen die Couch-Polster gerutscht sei, heißt es bei Apple. Ein aktualisierter Bluetooth-Chip soll obendrein für eine höhere Reichweite sorgen, sodass theoretisch auch fremde iPhones in größerer Entfernung einen verlorenen AirTag bemerken und den Standort an Apples Server respektive den Besitzer übermitteln.
In Hinblick auf Anti-Stalking-Funktionen hat Apple keine Neuerungen angekündigt, hier könnte das lautere Piepsen möglicherweise auch helfen. Ob sich der Lautsprecher der AirTags 2 ebenso einfach deaktivieren lässt wie der Lautsprecher der ersten AirTag-Generation, bleibt vorerst offen. Apple vermarktet die Tracker nicht als Anti-Diebstahl-Tool, weil die Stalking-Warnfunktionen schließlich auch Diebe auf das Gerät aufmerksam machen können.
AirTag 2 weiter ohne Öse
Der Hersteller rückt das Auffinden verlorener Gegenstände in den Vordergrund. Die Zusammenarbeit mit Fluglinien führte demnach dazu, dass sich Vorfälle von komplett verlorenem Reisegepäck um 90 Prozent reduziert haben. Nutzer können den Standort ihrer AirTags temporär mit Dritten teilen – viele Airlines haben das inzwischen in ihre Systeme integriert.
Die münzgroßen AirTags 2 passten in bestehendes Zubehör, wie Apple anmerkt. Das ist für viele Einsatzgebiete allerdings auch weiterhin zwingend erforderlich, schließlich verzichten sie unverändert auf eine Öse oder andere Aufhängevorrichtung. Für Strom sorgt weiterhin eine austauschbare Knopfzelle CR2032, die wie bisher länger als ein Jahr durchhalten soll.
Weiterlesen nach der Anzeige
Preislich tut sich nichts: Ein einzelner AirTag 2 kostet bei Apple 35 Euro, der Viererpack knapp 120 Euro. Im Handel war das Bundle meist weit unter 100 Euro zu haben. Käufer sollten aktuell allerdings genau darauf achten, ob sie noch die erste oder schon die zweite AirTag-Generation erwerben.
Update
26.01.2026,
21:49
Uhr
In der Meldung stand ursprünglich irrtümlicherweise, die verbesserte Genauer-Finden-Funktion benötige ein iPhone 17 – tatsächlich sind alle iPhone-Modellreihen ab dem iPhone 15 mit der zweiten Generation von Apples dafür erforderlichem Ultrabreitbandchip ausgerüstet. Ausgenommen bleibt nur das iPhone 16e.
(lbe)
Künstliche Intelligenz
Projektmanagement-Tool OpenProject 17.2 öffnet sich für KI-Systeme
Die quelloffene Projektmanagement-Software OpenProject liegt in Version 17.2 vor. Zentrales neues Feature ist ein MCP Server, der Projektdaten für KI-Systeme zugänglich macht. Außerdem bringt das Release wiederverwendbare Meeting-Vorlagen, neue Budget-Widgets auf der Projektübersicht sowie fünf Security-Fixes.
Weiterlesen nach der Anzeige
MCP Server als Brücke zu KI-Systemen
Der MCP Server implementiert das Model Context Protocol und stellt die APIv3-Ressourcen von OpenProject als MCP-kompatible Endpunkte bereit. Damit können KI-Systeme wie große Sprachmodelle (LLM) und andere MCP-Clients auf Projektdaten zugreifen – etwa um den Projektstatus zusammenzufassen oder Abhängigkeiten zwischen Arbeitspaketen zu analysieren. Der initiale Satz an MCP-Tools und Ressourcen umfasst Entitäten wie Projects, Work Packages und Users. Schreibzugriffe auf Projektdaten sind in der aktuellen Version noch nicht vorgesehen.
Technisch unterstützt der Server Session-Cookies und Bearer-Tokens. Für die Authentifizierung lässt er sich über OAuth2, API-Keys sowie externe OpenID-Connect-Provider anbinden; dafür steht ein eigener OAuth-Scope „mcp“ zur Verfügung. Die Konfiguration erfolgt über eine administrative Oberfläche, in der sich Response-Formate und -Volumen einstellen lassen.
Gesponsert hat das Feature Mercedes-AMG, das den MCP Server nach Angaben der Entwickler bereits aktiv in der eigenen OpenProject-Umgebung einsetzt und bei der Anforderungserhebung mitgewirkt hat. Der MCP Server steht als Enterprise-Add-on ab dem Professional Plan zur Verfügung.
Meeting-Vorlagen und Budget-Widgets
OpenProject 17.2 führt wiederverwendbare Meeting-Vorlagen ein. Administratoren definieren Templates mit vordefiniertem Agenda-Layout, die Nutzer beim Erstellen eines Meetings auswählen können. Die Agenda wird dann automatisch befüllt, was die Vorbereitung standardisiert und beschleunigt. Die Funktion ist als Enterprise-Add-on ab dem Basic Plan verfügbar.
Weiterlesen nach der Anzeige
Auf der Projektübersicht zeigen neue Budget-Widgets geplantes Budget, tatsächliche Kosten, Ausgabenquote und verbleibendes Budget an – inklusive visueller Aufschlüsselung nach Kostenart und Aggregation über Unterprojekte. Voraussetzung ist, dass sowohl das Budgets- als auch das Zeit-&-Kosten-Modul aktiviert sind. Die Widgets auf der Project Overview unterstützen nun auch Inline-Editing für Projektbeschreibung und Status. Hinzu kommen optionale Kommentarfelder für Projektattribute, die Änderungsbegründungen dokumentieren.
Barrierefreiheit und PDF-Export
Bei der Barrierefreiheit hat das Team nachgebessert: Die Widgets der Projektübersicht sind nun per Tastatur bedienbar und bieten verbesserte Semantik für Screenreader gemäß WCAG-2.1-AA-Richtlinien. Im PDF-Export lassen sich Beziehungen zwischen Arbeitspaketen nun als Tabellen darstellen; zudem werden WebP-Bilder unterstützt.
Im Bereich UX setzt OpenProject 17.2 das Primer Design System in weiteren Bereichen um, darunter die Backlogs-Ansicht mit Split-Screen und Drag & Drop sowie Admin-Oberflächen für Custom Fields, Versionen und Gruppen. Ein neuer Jira-Importer befindet sich in einer frühen Testphase und soll Issues, Kommentare, Anhänge und Strukturen übernehmen – weitere Funktionen sollen in kommenden Releases folgen.
Fünf Sicherheitslücken geschlossen
Version 17.2 behebt fünf Sicherheitslücken, die über das von der EU-Kommission geförderte Bug-Bounty-Programm bei YesWeHack gemeldet wurden. Darunter befindet sich CVE-2026-30234, eine Path-Traversal-Schwachstelle im BIM-BCF-XML-Import, die authentifizierten Nutzern das Lesen beliebiger Dateien ermöglichte (CVSS 6.5). CVE-2026-30239 beschreibt einen Permission-Bypass bei der Budget-Löschung (CVSS 6.5). Weitere Fixes betreffen DOM Clobbering über Markdown-Hyperlinks (CVE-2026-30235), das Leaken globaler Stundensätze an Nicht-Mitglieder über Labor Budgets (CVE-2026-30236) sowie eine Blind-SSRF-Lücke über Webhooks (CVE-2026-31974).
Erst Anfang des Jahres hatte OpenProject 17 die Echtzeit-Kollaboration in Dokumenten eingeführt. Die vollständigen Release Notes listen alle Änderungen im Detail auf.
Siehe auch:
(fo)
Künstliche Intelligenz
Meta Quest: Neuer Algorithmus macht VR-Spiele flüssiger
Meta hat einen neuen Frame-Timing-Algorithmus für Horizon OS eingeführt: FrameSync soll für ein flüssigeres Spielerlebnis mit oftmals höheren Bildraten und einer geringeren Verzögerung zwischen einer Kopfbewegung und ihrer sichtbaren Umsetzung in Virtual Reality sorgen. Ruckler, tiefe Bildraten und eine hohe Latenz gehören zu den häufigsten, aber längst nicht einzigen Auslösern für VR-bedingtes Unwohlsein, gemeinhin auch Motion Sickness genannt.
Weiterlesen nach der Anzeige
FrameSync ersetzt PhaseSync, den bisherigen Frame-Timing-Algorithmus, der vor über fünf Jahren für Meta Quest 2 eingeführt wurde. Entwickler können den neuen Algorithmus bereits mit ihren Apps ausprobieren, mit dem nächsten Betriebssystem-Update soll er automatisch für alle Apps im Horizon Store zur Anwendung kommen. Nutzer sollten damit unmittelbar von der Neuerung profitieren.
Ein möglicher Nachteil von FrameSync ist eine leicht höhere Auslastung von CPU und GPU, schreibt Meta. Das könne sich je nach Anwendung und Spieldauer geringfügig auf die Akkulaufzeit und die temperaturbedingte Leistungsdrosselung des Geräts auswirken. Aus diesem Grund können Entwickler FrameSync für ihre Apps manuell deaktivieren. Laut Meta sollten jedoch die meisten Anwendungen insgesamt von der neuen Technik profitieren.
Was ist FrameSync?
Frame-Timing-Algorithmen wie FrameSync und PhaseSync sorgen dafür, dass Rendering, Tracking und Bildausgabe zeitlich möglichst genau aufeinander abgestimmt werden.
Setzt die Berechnung eines Bildes zu früh an, kann es sein, dass es abgeschlossen und ausgegeben wird, bevor das System die neuesten Trackingdaten berücksichtigen kann. Das kann wiederum dazu führen, dass zwischen einer Kopfbewegung und ihrer Darstellung im Bild eine sichtbare Latenz entsteht. Die Funktion von FrameSync und PhaseSync besteht demnach darin, den richtigen Zeitpunkt für die Berechnung eines Bildes vorherzusagen und diese entsprechend zu verzögern.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Die alte und die neue Synchronisierungstechnik unterscheiden sich laut Meta darin, dass FrameSync den richtigen Renderzeitpunkt eines Bildes statistisch robuster vorhersagen kann.
Weiterlesen nach der Anzeige
Dadurch sollen auch sogenannte „stale frames“ vermieden werden. Dabei handelt es sich um Bilder, die das System mehr als einmal anzeigt, weil das nächste Frame nicht rechtzeitig berechnet werden konnte. Für den Spieler äußert sich das durch ein Ruckeln in der Bewegung. Durch eine genauere Vorhersage soll dieses Phänomen seltener auftreten und die Reaktionsfähigkeit des Systems insgesamt steigen.
(tobe)
Künstliche Intelligenz
Interview: Wie Hirnstimulation Depressionen lindert
Depressionen zählen zu den häufigsten psychischen Erkrankungen – allein in Deutschland sind jährlich über fünf Millionen Menschen betroffen. Doch nicht alle sprechen auf Antidepressiva an, und viele brechen die Therapie wegen Nebenwirkungen ab. Eine Alternative kann die transkranielle Gleichstromstimulation (tDCS) bieten, die bereits seit 1990 in anderen Kontexten im medizinischen Einsatz ist, vor allem in Kliniken und Forschungszentren.
Weiterlesen nach der Anzeige
Doch „Flow FL-100“, ein Medizinprodukt der Klasse IIa, soll die Stimulationsmöglichkeit ins heimische Wohnzimmer bringen. Es soll gezielt den präfrontalen Kortex stimulieren und so depressive Symptome lindern. In den USA hat die FDA das Gerät als erstes verschreibungspflichtiges Heim-Headset für Depressionen zugelassen. Über Flow haben wir mit Phil Ritter gesprochen, dem Geschäftsführer der deutschen Flow-Neuroscience-Tochter.

Phil Ritter ist Geschäftsführer der deutschen Tochter von Flow Neuroscience.
(Bild: Ritter)
tDCS ist in der klinischen Forschung seit über 20 Jahren bekannt. Warum bringen Sie diese Technologie jetzt als Headset für den Heimgebrauch?
Unser Ziel war es, das Gerät zugänglicher zu machen. Wir sehen tDCS als den „kleinen Bruder“ der transkraniellen Magnetstimulation (TMS), die man nur in Kliniken mit großen Geräten durchführen kann. Die Versorgungslage bei psychischen Erkrankungen ist angespannt: Wartezeiten auf Therapieplätze sind lang, und Medikamente sind nicht für jeden die richtige oder alleinige Lösung. Wir wollten eine Brücke bauen. Das Headset ermöglicht es Patienten, eine evidenzbasierte, klinische Methode sicher und eigenständig zu Hause anzuwenden – ohne monatelang auf einen Termin warten zu müssen.
Ein häufiges Missverständnis ist, dass solche Technologien herkömmliche Therapien oder Antidepressiva komplett ersetzen sollen. Ist das Ihr Ziel?
Nein, das nicht. Die Depression ist eine komplexe Erkrankung mit vielen Ursachen. Es gibt nicht die eine Wunderwaffe. Wir positionieren Flow ganz bewusst als weitere Säule im Behandlungsspektrum. Es kann als Monotherapie eingesetzt werden, aber wir sehen in unseren Daten, dass es auch in Kombination mit Antidepressiva oder Psychotherapie sehr effektiv ist – die Remissionsraten steigen in der Kombination sogar.
Weiterlesen nach der Anzeige
Es geht uns darum, Ärzten und Patienten ein weiteres Werkzeug an die Hand zu geben. Wenn ein Patient beispielsweise aufgrund von Nebenwirkungen keine Medikamente nehmen möchte oder kann – etwa bei Kinderwunsch oder wegen Libidoverlust –, bieten wir eine chemiefreie Alternative. Aber wir wollen die Pharmakotherapie nicht verdrängen, sondern das therapeutische Angebot sinnvoll erweitern.
Sie sind aktuell als Medizinprodukt zur Behandlung von Depressionen zugelassen. Im Gespräch erwähnten Sie aber auch Effekte auf Schlaf und Konzentration. Wo geht die Reise hin?
Wir nutzen zur Verlaufskontrolle die sogenannte MADRS-Skala (Montgomery-Åsberg Depression Rating Scale). Diese fragt nicht nur die Stimmung ab, sondern auch Faktoren wie Schlaflosigkeit, Konzentrationsfähigkeit, innere Unruhe und Appetit.
Wir sehen in den Daten, dass die Stimulation des präfrontalen Kortex durch tDCS oft positive Effekte genau auf diese Bereiche hat: Patienten berichten, dass sie besser schlafen oder sich wieder fokussieren können. Das ist für uns ein starkes Signal für die Zukunft. Wir investieren derzeit massiv in die Forschung, um zu prüfen, ob wir die Wirksamkeit auch isoliert für Angststörungen, Schlafprobleme oder Konzentrationsschwächen belegen können. Aktuell sind wir ein reines Depressions-Therapiegerät, aber langfristig sehen wir das Potenzial, auch diese komorbiden Symptome gezielt anzugehen.
Das klingt nach einer Bewegung in Richtung „Health & Wellness“ und Selbstoptimierung. Verschwimmen da die Grenzen?
Die Grenze zwischen Medizinprodukt und „Health & Wellness“ wird in den nächsten fünf bis zehn Jahren sicherlich unschärfer werden. Wir haben uns aber ganz bewusst für den härteren, medizinischen Weg entschieden. Wir hätten das Gerät auch als Lifestyle-Gadget für „besseres Denken“ vermarkten können. Aber wir wollten die wissenschaftliche Seriosität.
Patienten mit psychischen Leidensdruck brauchen Sicherheit, keine leeren Versprechen. Wenn wir irgendwann Claims zu Schlaf oder Konzentration machen, dann nur, wenn wir dafür dieselbe harte Evidenzbasis haben wie jetzt für die Depression.
Allein der Akt, sich jeden Tag 30 Minuten Zeit für sich selbst zu nehmen, das Gerät aufzusetzen und der Anleitung in der App zu folgen, etabliert eine positive Routine. Für Menschen in einer depressiven Episode, denen oft jegliche Struktur entgleitet, ist das enorm wertvoll. Es ist eine Form der Selbstwirksamkeit: „Ich tue aktiv etwas für meine Genesung.“ Dieser verhaltenstherapeutische Aspekt unterstützt die neurophysiologische Wirkung des Stroms.
Sie arbeiten an einer Weiterentwicklung der Technologie, die das Gehirn nicht nur stimuliert, sondern auch „liest“.
Richtig. Unser langfristiges Ziel ist eine noch stärkere Personalisierung. Wir arbeiten an der Integration von EEG-Technologie in das Headset. Die Idee ist, dass das Gerät die Hirnströme messen kann, um vorhersagen zu können, wie gut eine Person auf die Stimulation ansprechen wird.
Aktuell wissen wir meist nach der dreiwöchigen Aktivierungsphase, ob die Therapie anschlägt – bei etwa 77 Prozent ist das der Fall. Mit EEG-Daten und KI-Unterstützung könnten wir diesen „Response“ vielleicht schon viel früher erkennen oder das Stimulationsprotokoll individuell anpassen. Das würde die Behandlung noch effizienter und zielgerichteter machen.
Wie sieht es mit der Kostenerstattung aus?
Aktuell zahlen Patienten die rund 459 Euro meist selbst. Wir arbeiten intensiv daran, in die Regelversorgung zu kommen. In Großbritannien ist der NHS schon weiter und setzt Flow in vielen Bereichen ein. In Deutschland sind wir in Gesprächen mit dem G-BA (Gemeinsamer Bundesausschuss) und Krankenkassen. Das System hier ist etwas langsamer und prüft derzeit, ob noch spezifische Erprobungsstudien für den deutschen Markt nötig sind, obwohl die internationale Datenlage – unter anderem durch eine große Studie in Nature Medicine – sehr eindeutig ist.
Wir hoffen aber, dass wir langfristig eine Kassenleistung werden. Bis dahin setzen wir auf Mietmodelle und Kooperationen mit Kliniken, um den Zugang so niedrigschwellig wie möglich zu halten.
(mack)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenEMEC vereint Gezeitenkraft, Batteriespeicher und H₂-Produktion in einer Anlage
