Künstliche Intelligenz
Die beste leichte Gaming-Maus: Testsieger Logitech zum Black Friday günstiger
Leichte, kabellose Gaming-Mäuse sind aufgrund ihres Gewichts primär in der Shooter-Szene gefragt. Wir zeigen die Besten unter ihnen.
Im Gaming-Bereich haben Spieler je nach Genre unterschiedliche Anforderungen an ihre Peripherie. Gaming-Mäuse für MMORPGs haben etwa eine Vielzahl zusätzlicher Tasten, um der Menge an Fähigkeiten und Routinen im Spiel gerecht zu werden. In der kompetitiven Shooter-Szene dreht sich währenddessen alles um Präzision und blitzschnelle Reaktionen. Um diesen Anforderungen gerecht zu werden, setzen Hersteller auf schlanke Designs, ein geringes Gewicht und hochpräzise Sensoren. High-End-Mäuse sind zudem mit einer hohen Abtastrate ausgestattet, wodurch Verzögerungen weitestgehend ausgemerzt werden sollen.
Wir haben die fünf besten leichten kabellosen Gaming-Mäuse getestet und präsentieren sie in dieser Bestenliste. Alle von uns hier getesteten Geräte haben ein Eigengewicht von maximal 60 g, wobei die leichtesten Mäuse der Bestenliste sogar nur 48 g wiegen. Wir erklären außerdem, was hinter Fachbegriffen wie DPI und Polling-Rate (Abtastrate) steckt und was die Griffe, mit denen man eine Maus hält, unterscheidet.
Welche ist die beste leichte Gaming-Maus?
Unser Testsieger ist die Logitech G Pro X Superlight 2 für 98 Euro. Sie liefert eine hochwertige Verarbeitung, sensationelle Klicks sowie einen erstaunlich lang anhaltenden Akku und kommt mit einer Abtastrate von bis zu 8000 Hz.
Als Technologiesieger und beinahe Platz 1 geht die Asus ROG Harpe II Ace für 164 Euro hervor. Sie richtet sich mit ihrem Aufgebot an modernster Hardware und durch die Web-App ermöglichter Funktionen vorwiegend an ambitionierte Gaming-Enthusiasten.
Der Preis-Leistungs-Sieger ist hingegen die Asus ROG Keris II Ace für 80 Euro. Sie ist mit 54 g angenehm leicht und bietet für den Preis nicht nur praktische Funktionen, sondern auch eine gute Performance mit 8000-Hz-Abtastrate.
Worauf muss man bei einer Gaming-Maus achten?
Wie auch bei einer Tastatur oder einem Headset muss die Maus in erster Linie bequem benutzbar sein. Abhängig von Sitzposition, Handgröße und Platz auf dem Schreibtisch kommen manche Mäuse aufgrund ihrer Form einfach nicht infrage. Wer mit gesundheitlichen Problemen wie dem Karpaltunnelsyndrom zu kämpfen hat, sollte sich eher nach einer ergonomischen Maus umsehen.
Nicht jede Gaming-Maus unterstützt die gleichen Verbindungsmodi. Während die Mäuse in unserer Bestenliste allesamt kabellos sind, gibt es weiterhin rein kabelgebundene Mäuse. Die sind dann in den meisten Fällen günstiger, dadurch aber auch weniger flexibel einsetzbar. Das ist primär dann relevant, wenn man die Maus nicht nur zum Zocken am PC verwendet, sondern auch andere Endgeräte wie Tablets mit ihr bedienen möchte. Die meisten kabellosen Gaming-Mäuse unterstützen eine Funkverbindung via 2,4-GHz-Funk-Receiver. Dieser wird per USB-A-Anschluss entweder direkt an den PC gesteckt oder – je nach Hersteller – mittels eines Verlängerungsadapters mit dem USB-C-Port des Ladekabels verbunden. Das soll vordergründig dafür sorgen, dass die Distanz zwischen dem Receiver und der Maus so kurz wie möglich gehalten wird.
Die Funktechnologie ist mittlerweile auch so stark vorangeschritten, dass die Verzögerung durch die Übertragung des Signals beim Zocken kaum noch ins Gewicht fällt. In vielen Fällen unterstützen Gaming-Mäuse auch eine Bluetooth-Verbindung. Diese eignet sich zwar, um damit zu surfen oder im Büro zu arbeiten, unterliegt aber in puncto Latenz der Funkverbindung um einiges.
Je nachdem, welche Spiele man hauptsächlich spielen möchte, ist ein Griff zu einer High-End-Maus mit 8000-Hz-Abtastrate und State-of-the-art-Sensoren unnötig. Für gelegentliches Zocken reicht auch eine Mittelklasse-Maus, wie die Hyperx Pulsefire 2 Haste. Während die Mäuse in dieser Bestenliste aufgrund ihrer Charakteristika hauptsächlich für First-Person-Shooter (FPS) ausgelegt sind, gibt es auch welche, die andere Nischen und Bedürfnisse bedienen. Anstatt ultraleicht gibt es Exemplare, die deutlich mehr wiegen und teilweise sogar mit extra einsetzbaren Gewichten kommen. Auch die bereits erwähnten MMORPG-Mäuse, die mit 8 oder mehr zusätzlichen Buttons ausgestattet sind, um Makros oder Shortcuts auszuführen, gibt es.
Weniger wichtig für die tatsächliche Performance der Maus, aber für den einen oder anderen dennoch essenziell: die RGB-Beleuchtung. Diese reicht von Akzenten wie einem beleuchteten Mausrad oder dem Logo bis hin zur Festbeleuchtung an den Seiten. Ist einem die Akkulaufzeit wichtig, sollte man jedoch auf eine permanente Beleuchtung verzichten oder direkt eine Maus kaufen, die gar keine RGBs hat.
Die Software der Maus kann ebenso ein wichtiges Entscheidungskriterium sein. Dazu zählt nicht nur der Funktionsumfang, den diese der Maus ermöglicht. Hersteller wie Logitech oder Asus Rog bieten mit ihren Software-Angeboten Schnittstellen zu anderen Produkten aus dem eigenen Sortiment. Wer also bereits Tastaturen oder Headsets eines bestimmten Herstellers besitzt, sollte sich überlegen, ob sich auch ein Kauf der Gaming-Maus aus dem gleichen Hause lohnt.
Was sind Claw-, Palm- und Fingertip-Grip?
Wie man die Maus hält, ist von Person zu Person unterschiedlich. Dennoch haben sich überwiegend drei differenzierte Handpositionen herauskristallisiert, die auch beim Design der Mäuse mitbedacht werden.
Verwendet man den Claw-Grip, um die Maus zu halten, bedeutet das, dass die Finger gekrümmt auf den Maustasten liegen und die Peripherie über Bewegungen mit dem Handgelenk manövriert wird. Beim Claw Grip lohnt es sich, auf das Gewicht der Maus zu achten, da eine leichtere Maus weniger Kraftaufwand für das Handgelenk bedeutet und dementsprechend auch weniger anstrengt.
Beim Palm-Grip liegt die Hand vollständig auf der Maus, was bedeutet, dass man sie ausschließlich über den Arm bewegt. Feine Bewegungen mittels Handgelenk sind nur schwer möglich. Um den Griff zu unterstützen, ist es ratsam, eine längere und auch etwas breitere Maus zu wählen, die Platz für die gesamte Handfläche bietet.
Hält man die Maus ausschließlich mit den Fingerspitzen, spricht man hier vom Fingertip-Grip. Dabei berührt die Handfläche nicht die Maus, welche daher über das Handgelenk bewegt wird. Neben texturierten Flächen an den Seiten der Maus, die den Fingerspitzen besseren Halt geben, ist auch hier ein leichtes Gerät zu bevorzugen, um das Handgelenk zu entlasten. Da die Handfläche keinen Kontakt mit der Maus hat, ist es auch nicht verkehrt, auf eine flachere und kürzere Maus zurückzugreifen.
Was sind Abtastrate und DPI?
Die Abtastrate sagt aus, wie häufig die Maus ihre Position an den PC weitergibt, und spiegelt die damit verbundene Reaktionszeit wider. Sie wird dabei immer in Hz angegeben. Einfach gesagt: je höher der Hz-Wert, desto schneller die Reaktionszeit und desto geringer die Verzögerung. Allerdings bedeutet eine höhere Abtastrate auch mehr Auslastung für den PC und kann dementsprechend die Leistung beeinträchtigen. Der Standard bei Gaming-Mäusen ist 1000 Hz. In jüngster Zeit haben sich Frequenzen von 4000 bis 8000 Hertz ebenfalls etabliert und werden vermehrt im exklusiven High-End-Segment genutzt. Dabei handelt es sich auch nicht um reines Marketing-Gewäsch, denn der Unterschied ist deutlich spürbar.
DPI hingegen steht für Dots per Inch und beschreibt, wie viele Pixel der Mauszeiger auf dem Monitor zurücklegt, wenn man die Maus auf dem Schreibtisch einen Inch (2,54 cm) bewegt. Erhöht man die DPI-Einstellung, wird der Sensor sensibler. Schiebt man jetzt die Maus die gleiche Distanz auf dem Schreibtisch wie zuvor, bewegt sich der Zeiger deutlich weiter. Verringert man den DPI-Wert, wird der CMOS-Sensor weniger sensibel und das Gegenteil tritt ein: Der Zeiger bewegt sich weniger weit für die gleiche zurückgelegte Distanz auf dem Schreibtisch. Bei einer DPI-Einstellung von 600 muss man die Maus etwa rund 8 cm bewegen, um von der linken Seite eines Full-HD-Monitors (1920 × 1080 Pixel) ganz auf die rechte Seite zu gelangen. Hat man einen höheren DPI-Wert eingestellt, beispielsweise 2000, dann muss man die Maus für die gleiche Strecke nur einen halben Zoll oder 1,27 cm bewegen.
Grundsätzlich ist der DPI-Wert Geschmackssache, allerdings empfiehlt es sich je nach Programm, eine niedrigere DPI zu wählen. Bei kompetitiven FPS-Games etwa, bei denen es wichtig ist, pixelgenau mit der Maus zu zielen. Andersherum lohnt sich eine etwas höhere DPI, wenn man mit einem Multi-Monitor-Setup arbeitet und die Maus etwa über drei Bildschirme bewegen muss. Da viele Mäuse aber in der Lage sind, verschiedene DPI-Profile anzulegen und per Knopfdruck zwischen diesen zu wechseln, ist die Geschwindigkeit der Maus für jede Situation problemlos anpassbar.
Welche Sensoren stecken in einer Maus?
Im Vergleich zu den Mäusen von früher, die mit ihren Kugeln und Rollen sehr anfällig für Fusselansammlungen waren und deswegen regelmäßig gereinigt werden mussten, ist man bei modernen Mäusen auf eine digitale Sensorik umgestiegen: optische Sensoren und Laser-Sensoren.
Bei optischen Mäusen beleuchtet eine LED die Fläche unter ihr, wodurch der CMOS-Sensor im Inneren der Maus in der Lage ist, Fotos vom Untergrund aufzunehmen. Die Maus ist so imstande, die Oberflächenstruktur zu erfassen und durch die digitale Verarbeitung der geschossenen Bilder festzustellen, wie weit und wohin sie sich bewegt hat, um die Cursorbewegung und -position auf dem Monitor abzubilden.
Laser-Mäuse setzen ebenfalls auf die Aufnahme tausender Bilder, um Position und Oberfläche zu bestimmen. Der Unterschied ist jedoch, dass der verbaute Laser tiefer in die Oberfläche eindringen kann als die LED einer optischen Maus und so die Feinheiten und Veränderungen in der Struktur dieser besser für die Kamera erfassbar macht. Daraus resultiert primär, dass Laser-Mäuse noch präzisere Bewegungen ermöglichen, als es optische bereits tun – und solche Mäuse auf mehr Oberflächen ohne Probleme funktionieren.
Beide Sensoren eignen sich für die Arbeit im Büro oder beim Gaming. Man sollte allerdings bei optischen Mäusen darauf achten, auf einer matten und lichtundurchlässigen Oberfläche zu arbeiten. Bei Oberflächen wie Glastischen oder bei Tischen mit einem glänzenden, reflektierenden Finish hat es der Sensor schwer, zuverlässig zu arbeiten. Laser-Mäuse haben dieses Problem nicht und finden sich auf so ziemlich allen Oberflächen gut zurecht. Aufgrund ihrer deutlich präziseren Erfassung sind sie nicht jedermanns Geschmack und je nach Modell eventuell auch etwas Overkill für den regulären Einsatz im Büro.
Fazit
Leichte kabellose Gaming-Mäuse sind flexibel einsetzbar, auf Dauer schonender für das Handgelenk als schwere Mäuse und obendrein ideal, um in FPS wie Valorant oder CS2 zu dominieren. Um eine solche Maus zu genießen, muss man nicht unbedingt tief in die Tasche greifen – aber im High-End-Bereich gibt es phänomenal gute Hardware, die beim Zocken einen deutlichen Unterschied macht. Ausschlaggebend hierfür ist in erster Linie die hohe Abtastrate, dank der die Mäuse extrem kurze Reaktionszeiten vorweisen können und im Spiel für verzögerungsfreie und präzise Klicks sorgen. Zusätzliche Funktionen, die dank der Software freigeschaltet werden, ermöglichen häufig eine zusätzliche Individualisierung im Umgang mit der Maus. Makros, Shortcuts oder gar auf den Spieler angepasste Beschleunigungskurven sind möglich.
Mit unserer Bestenliste haben wir die stärksten leichten Gaming-Mäuse vorgestellt. Unser Testsieger ist die Logitech G Pro X Superlight 2 für 98 Euro. Als Technologiesieger geht die Asus ROG Harpe II Ace für 164 Euro hervor. Der Preis-Leistungs-Sieger ist die Asus ROG Keris II Ace für 80 Euro.
Weitere interessante Themen:
Künstliche Intelligenz
Offshore-Wind: Branchenverbände warnen vor Verfehlen der Ausbauziele
Erst gestern frohlockte Bundeskanzler Friedrich Merz, dass der Ausbau der Windenergie auf See konkret vorangebracht worden sei. Auf dem Nordseegipfel in Hamburg verabredeten Regierungschefs mehrerer Anrainerstaaten, den Nordseeraum zum größten Hub für saubere Energie machen zu wollen. Eine Pressemitteilung verschiedener Branchenverbände der deutschen Offshore-Windindustrie schürt jedoch Zweifel daran. Die von der Stiftung Offshore-Windenergie veröffentlichte Erklärung prophezeit gar, dass Deutschland sein Ausbauziel von 30 Gigawatt bis zum Jahr 2030 nicht halten kann und nur 20 GW schafft. Das Ziel sei frühestens ab 2032 erreichbar.
Weiterlesen nach der Anzeige
Auf den ersten Blick sieht es so aus, dass der Ausbau im Jahr 2025 gut vorankam: 41 neue Offshore-Windanlagen mit 518 MW gingen ans Netz. Insgesamt belief sich die Zahl der installierten Anlagen in der deutschen Nordsee auf 1680 Stück mit 9740 MW. 19 weitere Anlagen mit insgesamt 278 MW sind bereits errichtet, aber noch ohne Netzeinspeisung. Außerdem wurden 65 Fundamente installiert, bilanzieren die Branchenverbände.
Gescheiterte Ausschreibung als Warnschuss
Dass es trotzdem stockt, macht die Lobby an zwei Punkten fest: Erstens bremsen Verzögerungen beim Netzanschluss das zügige Vorankommen. Zweitens sieht die Branche in einer gescheiterten Ausschreibung im August 2025, bei der es keine Gebote gab, einen Warnschuss. Ohne eine Reform könnte es auch künftig nur wenige oder gar keine Interessenten geben. Schon im Juni könnte es darüber Gewissheit geben, wenn eine weitere Ausschreibung endet.
Die Verbände plädieren unter anderem dafür, Windpark-Flächen künftig nicht mehr an den Meistbietenden zu vergeben. Projekte würden durch das sogenannte negative Bieten unrentabel. Viele Firmen bauten dann erst gar nicht. Ökonomen und Teile der Politik gehen hingegen davon aus, dass ein fairer Marktpreis für die Nutzung öffentlicher Flächen angemessen ist. Dem Staat würden dadurch Milliardeneinnahmen entgehen. Die Zahlungen würden dazu beitragen, übermäßige Gewinne der Unternehmen abzuschöpfen und die Kosten der Energiewende für die Allgemeinheit zu senken, indem zum Beispiel mit den Einnahmen Netzentgelte gesenkt werden.
Forderung nach Sicherheitsnetz
Eine weitere Forderung der Offshore-Industrie ist eine Einführung zweiseitiger Contracts-for-Difference (CfD), so wie sie in Großbritannien üblich seien. Hinter dem Fachbegriff verbergen sich planbare Einnahmen durch feste Strompreise. Ist der Marktpreis niedriger, zahlt der Staat die Differenz, damit die Windparks rentabel bleiben. Ist der Marktpreis höher, bekommt der Staat die Extra-Gewinne zurückgezahlt. Doch dieses „Sicherheitsnetz“ ist selbst unter Akteuren der Erneuerbaren-Branche nicht unumstritten: Der Bundesverband Erneuerbare Energie warnt in einer Analyse davor, dass dann der Anreiz fehle, Strom dann zu produzieren, wenn er am meisten benötigt wird. Auch könnten die Windparkbetreiber private Lieferverträge zugunsten staatlicher Förderung verdrängen.
Weiterlesen nach der Anzeige
Die Offshore-Branche setzt sich außerdem dafür ein, langfristige Lieferverträge mit großen Industriekunden (Power Purchase Agreements) besser abzusichern und Sanktionen anzupassen. Die aktuellen Strafen für Interessenten, die den Zuschlag für eine Windpark-Fläche bekommen, sind nach Ansicht von Branchenvertretern so gesetzt, dass Firmen lieber „pokern“, anstatt wirklich zu bauen. Auch mehr Bundesmittel für Hafeninfrastruktur, ein stärkerer Fokus auf die Sicherheit der Anlagen sowie Schutz vor Marktverzerrung durch staatlich geförderte Akteure stehen auf dem Wunschzettel der Branche.
(mki)
Künstliche Intelligenz
Festplattenverschlüsselung FileVault: Apple umgeht BitLocker-„Falle“ in macOS 26
Nach Berichten, dass Microsoft auf richterlichen Beschluss auf seinen Cloud-Servern abgelegte Schlüssel für den lokalen SSD-Schutz BitLocker herausrückt, fragen sich macOS-Nutzer, ob ihnen Ähnliches droht. Darauf gab es, zumindest bis macOS 26 alias Tahoe, im Stil von Radio Eriwan nur eine Antwort: „Im Prinzip ja, aber …“
Weiterlesen nach der Anzeige
Zugriff ohne Advanced Data Protection zumindest denkbar
Vor dem im Herbst erschienenen neuen Betriebssystem konnten Nutzer bei FileVault entscheiden: Entweder die Verschlüsselung läuft rein lokal und man schreibt sich einen – im Übrigen nur einmal auftauchenden – Wiederherstellungsschlüssel (Recovery Key) auf – oder man hinterlegte diesen in iCloud, konnte also mit seinem Apple-Account dann auch gleich FileVault entschlüsseln. Entschied man sich für diesen Weg, drohte ähnliches Ungemach wie bei Microsofts BitLocker: Sofern staatliche Stellen Apple dazu bewegten, Zugriff auf den Apple-Account samt iCloud zu erteilen, war auch Zugriff auf FileVault möglich. Derzeit ist unklar, wie, ob und wie oft so etwas bereits geschah – eine entsprechende Anfrage seitens Mac & i bearbeitet der iPhone-Konzern noch.
Eine potenzielle Lösung gab es hierfür indes, auch wenn sie nicht standardmäßig vom Betriebssystem empfohlen wurde: die Verwendung des erweiterten Datenschutzes für iCloud, auf Englisch Advanced Data Protection, kurz ADP. Die seit Ende 2022 / Anfang 2023 verfügbare Technik sorgt dafür, dass alle sensiblen Inhalte, die bei Apple lagern, (endlich) Ende-zu-Ende-verschlüsselt werden und auch Apple selbst – und damit mit Gerichtsbeschluss ausgestattete Behörden, die bei Apple vorstellig werden – keinen Zugriff auf diese hat. Damit war dann auch der FileVault-Zugang gesichert. Das Problem: Viele Nutzer kennen oder finden ADP schlicht nicht oder fürchten sich gar vor der Funktion, da ihnen Apple nach Aktivierung bei Verlust ihres Passworts nicht mehr helfen kann (dafür gibt es aber andere Möglichkeiten).
Mit macOS 26 wird FileVault sicherer
Vorspultaste zu macOS 26: Das neue Betriebssystem hat FileVault nun standardmäßig sicherer gemacht. Denn: Statt den Recovery Key auf Wunsch in iCloud abzulegen, wo Apple gegebenenfalls herankommt, wird hier der iCloud-Schlüsselbund verwendet. Dieser arbeitet von Beginn an Ende-zu-Ende-verschlüsselt und konnte damit von Apple noch nie eingesehen werden. Zugriff erfolgt nur in Kombination von Passwort und zweitem Faktor, an den auch Apple nicht gelangen kann, da dieser an einem Gerät hängt, das sich im Besitz des Nutzers befindet.
Störend an FileVault in Tahoe: Apple fragt nicht mehr nach, ob eine Synchronisation erfolgen soll oder nicht. Ist der iCloud-Schlüsselbund aktiv (zu erkennen daran, dass „Passwörter“ in den Apple-Account-Einstellungen für iCloud aktiv ist), landet der Wiederherstellungsschlüssel automatisch darin, man kann dies nicht mehr, wie bei der unsicheren reinen iCloud-Hinterlegung in macOS 15 und zuvor, unterbinden. Nützlich ist in macOS 26 jedoch, dass man den Wiederherstellungsschlüssel in den FileVault-Einstellungen beliebig oft wieder anzeigen lassen kann. Diesen sollte man unbedingt notieren und an einem sicheren Ort aufbewahren, egal ob man den iCloud-Schlüsselbund verwendet oder nicht.
Weiterlesen nach der Anzeige
Update
27.01.2026,
23:54
Uhr
Weitere Details zur Hinterlegung des Wiederherstellungsschlüssels im iCloud-Schlüsselbund samt Erläuterung der Funktionsweise des FileVault-Bootprozesses finden sich in einer Kolumne des bekannten Apple-Autoren Glenn Fleishman bei Six Colors.
Dieser erläutert auch, warum FileVault grundsätzlich notwendig ist, um die SSD abzusichern, obwohl Macs diese grundsätzlich über den integrierten M-Chips (und den SSD-Controller) verschlüsseln: Ist der jeweilige Mac mit der SSD verknüpft, liegt diese auch offen und es kann gebootet werden. FileVault schützt davor und erlaubt ohne Passwort keinen Datenabfluss.
(bsc)
Künstliche Intelligenz
KI bei Versicherungen: Wenn der Tarif aus den 70ern auf Google Gemini trifft
Versicherungen und Finanzdienstleister gehören zu den ersten echten Anwendern von KI-Systemen im unternehmerischen Alltag. Doch was heißt das praktisch, wie geht man mit der Verlagerung von Arbeitsschwerpunkten um und was ist mit der großen Macht amerikanischer Konzerne in dem Bereich? Johannes Rath vom deutschen Versicherer Signal Iduna, der als Vorstandsmitglied „Kunde, Service & Transformation“ neben der Betriebsorganisation auch für den Bereich Digitalisierung zuständig ist, spricht im Interview mit heise online über die praktische KI-Verwendung bei einem solchen Konzern – und die Bedenken der Mitarbeiter.
Weiterlesen nach der Anzeige
heise online: Lassen Sie uns mit dem Elefanten im Raum anfangen: Trump, Zölle, geopolitische Risiken. Ihr Unternehmen nutzt für seine internen KI-Dienste Google Gemini sowie Google Cloud. Der Internetriese ist bekanntlich eine US-Firma – macht Ihnen das Sorgen?
Johannes Rath: Nein. Wir haben von Anfang an – in der Partnerschaft und in der Art, wie wir Googles Dienste nutzen – sehr viel Wert darauf gelegt, dass alles kompromisslos auf dem hohen Regulierungsniveau unserer Branche stattfindet.
Zum Beispiel: Es gibt keinen Zugriff auf personenbezogene Kundendaten. Die KI-Lösungen basieren ausschließlich auf internen, pseudonymisierten Daten, die sicher innerhalb unserer technischen Infrastruktur verarbeitet werden. Wir sind strategischer Partner von Google Cloud – so wie etwa auch die der Deutsche Bank oder die Deutsche Telekom. Daher gibt es für mich auch keinen Elefanten im Raum.
Was macht eine Versicherung wie Signal Iduna konkret mit Google Cloud?
Google ist unser Transformationspartner im Sinne unserer Cloud-Strategie. Wir migrieren eine Reihe von Anwendungen in die Google Cloud. Inhaltlich sind wir inmitten zweier großer Themen – einmal horizontal und einmal vertikal.
Horizontal heißt: Im Oktober 2025 haben wir als eines der ersten Unternehmen in Europa für unsere gesamte Unternehmensgruppe Googles Gemini Enterprise eingeführt. Das heißt, jeder Mitarbeitende arbeitet nun zentral mit der KI-Plattform und wird auch in die Lage versetzt, eigenständig KI-Agenten zu entwickeln, die dann auch in der gesamten Organisation zum Einsatz kommen können.
Weiterlesen nach der Anzeige

Johannes Rath, Innovationschef bei Signal Iduna.
(Bild: Saskia Uppenkamp / Signal Iduna)
Vertikal heißt: Wir haben schon im Jahr 2023 in der Krankenversicherung angefangen, einen sehr spezifischen Agenten aufzubauen.
Zunächst intern?
Genau, für unsere Belegschaft. Hintergrund: Es gab in den letzten Jahren eine hohe Steigerung von Leistungsabrechnungen in der Krankenversicherung. Sowas führt natürlich auch zu einem entsprechend erhöhten Serviceaufkommen bei den Versicherungen. Was daran am meisten Geld und Nerven kostete, war das Suchen und Warten: Kundinnen und Kunden hingen dann zum Beispiel immer länger in der Warteschleife. Und landeten vielleicht noch bei jemandem, der das Anliegen nicht vollständig lösen konnte. Bei hunderten verschiedenen Versicherungstarifen und tausenden Vertragsdokumenten kann das passieren.
Darum haben wir begonnen, einen eigenen Agenten mit unseren Krankenversicherungsdaten zu entwickeln und trainieren – über alle 600 Tarife hinweg. Das war enorme Arbeit, weil es auch um die Input-Qualität der Daten ging. Wir haben beispielsweise noch Tarife aus den Siebzigerjahren, die zwar als gescannte PDF vorliegen, aber maschinell nicht lesbar sind – und diese Tarife möchten Menschen heute noch behalten. Die Datenqualität der Scans war teilweise so schlecht, dass wir entschieden haben, Studierende zu engagieren, die die ältesten PDFs abgeschrieben haben.
Was bringt ein solcher Wissensagent für die Krankenversicherung überhaupt messbar?
Nachdem der Agent in die Anwendung gebracht wurde, reduzierte sich die Weiterleitungsrate – von einem Kundendienstmitarbeiter zum nächsten – von 27 Prozent auf 3 Prozent. Gleichzeitig ist die Bearbeitungsgeschwindigkeit um 37 Prozent gestiegen.
Die Ergebnisse waren richtig spürbar: Unser Net Promoter Score, eine Messgröße für die Kundenzufriedenheit, haben wir in dieser Phase Zeit verdoppelt. Das war das erste Mal, dass wir bei einem vertikalen Thema so einen deutlichen Effekt gesehen haben.
Und sind die Ergebnisse des Agenten zuverlässig – oder sehen Sie auch Halluzinationen?
Wir haben mittlerweile eine sehr gute Antwortqualität erreicht. Es bleibt wichtig, dass unsere eigenen Mitarbeitenden den Agenten trainieren und wir die Antwortqualität kontinuierlich verbessern.
Wie hoch ist die tatsächlich?
Mittlerweile bei mehr als 85 Prozent über alle Anfragen (einfach und komplex) hinweg. Wir haben stets einen „Human in the Loop“ im Prozess – also ein Mitarbeiter überprüft die Antwort der KI.
Interessant ist: Ohne den KI-Agenten ist die Antwortqualität bei sehr spezifischen Fragen oft noch deutlich schlechter – da sucht jemand gern auch mal 15 Minuten.
Unser Fazit: Künstliche Intelligenz übernimmt zunehmend Tätigkeiten, aber ersetzt nicht den Menschen selbst. Entscheidend bleiben weiterhin Erfahrung, Verantwortung und Urteilsvermögen. Und gerade in unserem Bereich: Fingerspitzengefühl und Ansprechbarkeit.
Sieht der Kunde schon etwas von der KI?
Nein. Den Agenten nutzen aktuell unsere Mitarbeitenden, um schneller Fragen zu beantworten, die Kundinnen und Kunden stellen.
Es geht also dann um Tarifdetails in ihren Verträgen? Also beispielsweise: „Wie viele Stunden Psychotherapie sind in meinem Tarif enthalten“?
Meist ist es komplizierter, aber ja. Normalerweise müssen Menschen dafür quer durch Dokumente suchen – das ist aufwendig und kostet Zeit, gerade bei komplexen Themen.
Kommen wir zum Thema Claims, also den Ansprüchen an einen Versicherer. Nutzen Sie KI schon für die Entscheidung im Schadensfall?
KI ist bereits heute integraler Bestandteil unserer Schadenregulierung. So setzen wir KI unterstützend in der Schadensaufnahme, -bearbeitung oder Betrugserkennung ein. Unser KI-Assistent liefert die datenbasierte Grundlage, der Mensch trifft die finale Entscheidung.
Für dieses Jahr haben wir uns das klare Ziel gesetzt, die KI-Integration weiter voranzutreiben auf dem Weg zu unserer langfristigen Vision: der ‚Zero-Touch Claim‘ mit einer vollautomatisierten Schadenabwicklung für das Service-Erlebnis in Echtzeit.
Stichwort Input – wo hakt es denn beispielsweise bei Rechnungen, die die Kunden einreichen?
Versicherung ist ein papierintensives Geschäft. Aber: Bei uns kommen mittlerweile mehr als 60 Prozent der Krankenversicherungsrechnungen digital rein. Die Input-Qualität entscheidet: Entweder läuft der Prozess anstandslos automatisiert durch oder es muss manuell nacherfasst werden. In Deutschland gibt es keinen Standard, wie eine Krankenversicherungsrechnung auszusehen hat. Wenn etwas manuell nacherfasst werden muss, dauert es länger: Dann ist ein Vorgang nicht an einem Tag abgeschlossen, sondern eher in einer Woche.
Liegt das auch schlicht an schlechten Scans?
Eher an der Unterschiedlichkeit der Dokumente. Deswegen haben wir für die bessere Input-Qualität KI nach vorn gesetzt. Entscheidend ist: Je besser die Datenqualität, desto besser laufen die KI-Agenten. In diesem Bereich steckt aus meiner Sicht noch sehr viel Potenzial.
Vertrieb ist für Versicherungen wichtig. Nutzen Sie KI auch dafür, passende Tarife zu finden?
Ja – der gesamte Vertrieb kann seit Beginn unsere KI-Lösungen nutzen. So können sich Vermittler mit diesen Tools besser auf Kundengespräche vorbereiten oder Tarifvergleiche anfertigen – wie zum Beispiel bei der Einführung unseres neuen Krankenversicherungs-Produktes. Wir reduzieren mit KI also Vorbereitungszeiten, damit sich unsere Vermittler um den Kunden kümmern können.
KI kann nicht nur Dokumente. Haben Sie Sprachgenerierungssysteme auf Kundenseite im Einsatz?
Wir machen gerade die ersten Proof-of-Concept-Fälle. Das halte ich für eines der spannendsten Produkte für die Versicherungs- und Finanzindustrie.
Proof of Concept ist ein wichtiges Stichwort. Bei KI wird viel experimentiert, was auch teuer ist. Die Frage ist dann, was letztlich an Anwendungsfällen im Alltag einer Firma bleibt.
Es wird viel über Use Cases geredet. Ich glaube, entscheidend ist aber tatsächlich der „Use“. Unser Ansatz ist: First Use, then Case. Das ist meiner Meinung nach die richtige Verwendung von KI in Unternehmen. Die KI-Plattform der Signal Iduna auf Basis von Gemini Enterprise haben wir „Co SI“ genannt. Unsere Mitarbeitenden können es auch nutzen, um E-Mails zusammenzufassen, Fragen zu beantworten – wie man ein GPT eben nutzt.
Das heißt – jemand muss jetzt erstmal im Unternehmen ständig schauen, was die Leute mit KI machen?
Genau. Wir beobachten, um zu verstehen, wie Mitarbeitenden diese Technologie nutzen. Das ist recht faszinierend, denn daraus entstehen die Cases, die wir später skaliert umsetzen. Hierfür haben wir über 110 „KI-Champions“ etabliert, die dezentral dabei helfen, KI zu nutzen und die richtigen Cases zu identifizieren. Man muss der Organisation also die Möglichkeit geben, KI-Fähigkeiten aufzubauen, ihren Wert zu erkennen und dann gezielt KI-Agenten zu bauen.
Dabei achten wir darauf, dass KI in der Breite genutzt wird – bevor aber ein KI-Agent entwickelt und skaliert wird, muss ein entsprechender Business Case vorliegen.
Sehen Sie in Ihrer Belegschaft auch Angst vor KI? Also dass Beschäftigte denken, dass man ihnen den Job wegnimmt?
In den kommenden zehn Jahren werden unser Unternehmen rund 30 Prozent der Mitarbeitenden altersbedingt verlassen. Wir sind demnach angehalten, zu handeln. Und das kommunizieren wir aktiv in unserer Belegschaft. Gleichzeitig haben wir eine Betriebsvereinbarung geschlossen, die bis Ende 2028 zusichert, dass wir keine betriebsbedingten Kündigungen in Verbindung mit der Implementierung von generativer KI aussprechen werden.
Um bei praktischen Anwendungen zu bleiben – welche KI-Agenten wollen Sie bauen?
Vertikal werden wir weitere „Spartenagenten“ bauen – in den Bereichen Krankenversicherung oder Autoversicherung beispielsweise – also dort, wo wir sehr spezifisch arbeiten. Und wir werden KI-Agenten bauen, die Friktion aus dem System nehmen: kleine Agenten, die die Arbeit insgesamt effizienter machen – zum Beispiel dort, wo Bürokratie Reibung erzeugt. Bei mühsamen und lästigen Aufgaben reduzieren wir mit aller Entschiedenheit. Also: Vertikales Wissen aufbauen und verbreiten – und horizontale Friktion abbauen.
Als letzte Frage – wo nutzen Sie persönlich KI, beruflich und privat?
Ich probiere immer wieder Produkte aus, um ein Gefühl dafür zu bekommen, wie KI funktioniert. Darunter natürlich Gemini, aber auch Perplexity und You.com. Aber ich nutze auch Eleven Labs, um besser zu verstehen, wie KI in Zukunft das Thema „Voice“ besetzen wird.
(bsc)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 4 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
