Künstliche Intelligenz
Datenpanne bei der Datev: Wenn die Lohnabrechnung beim Falschen landet
Der Jahresauftakt verlief für viele Steuerberater und Personalabteilungen turbulenter als erhofft. Was am Donnerstag als vermeintlich einfache technische Störung im Rechenzentrum des Nürnberger IT-Dienstleisters Datev begann, weitete sich innerhalb von 48 Stunden zu einer handfesten Datenschutzpanne aus. Betroffen war mit dem System Lodas eines der Flaggschiffe des Softwarehauses, das „individuelle Lösungen für Ihre Lohnbuchhaltung“ verspricht.
Weiterlesen nach der Anzeige
Die Software Lodas ist vor allem bei größeren Mandanten im Einsatz, bei denen während des laufenden Monats „Probeabrechnungen“ zur Qualitätskontrolle erstellt werden. Diese Vorab-Belege dienen dazu, Änderungen bei Abrechnungsparametern zu prüfen, bevor die finale Lohnabrechnung erfolgt. Normalerweise werden diese Ergebnisse innerhalb weniger Minuten automatisiert an den Rechner zurückübertragen, der den Auftrag ausgelöst hat. Doch genau dieser Rückfluss geriet am 8. Januar ins Stocken, wie Datev-Mitarbeiter auf einem Community-Portal mitteilten. Die Probeabrechnungen wurden im Rechenzentrum zwar erstellt, erreichten ihre Empfänger aber nicht.
Um den entstandenen Datenstau aufzulösen, implementierten Datev-Techniker laut den Einträgen im Laufe des Freitags einen „Workaround“. Ziel war es, die Zustellung der ausstehenden Probeabrechnungen an die Absender zu erzwingen. Doch die medizinische Metapher von der „geglückten Operation bei verstorbenem Patienten“ drängt sich hier förmlich auf: Der Reparaturversuch funktionierte zwar technisch, verursachte aber einen Zuordnungsfehler. Anstatt die Dokumente an die rechtmäßigen Auftraggeber zurückzusenden, lieferte das System die Probeabrechnungen wahllos an fremde Mandanten aus.
Komplexes juristisches Nachspiel
In einschlägigen Fachforen und sozialen Netzwerken verbreitete sich die Nachricht von den „Fremd-Abrechnungen“ wie ein Lauffeuer. Mitarbeiter von Kanzleien berichteten fassungslos, dass sie plötzlich die hochsensiblen Gehaltsdaten völlig fremder Unternehmen auf ihren Bildschirmen sähen und beklagten eine „Vollkatastrophe“. Da diese Dokumente Namen, Anschriften, Sozialversicherungsnummern und natürlich die Verdienstdaten von Beschäftigten enthalten, dürfte die Schwelle zum meldepflichtigen Vorfall nach der Datenschutz-Grundverordnung (DSGVO) überschritten sein.
Die Datev konnte die technische Störung bis zum späten Freitagnachmittag nach eigenen Angaben beheben. Doch das juristische Nachspiel bleibt für die Kunden komplex. Die Softwarefirma positionierte sich in einer Stellungnahme gegenüber dem IT-Blogger Günter Born als reiner Auftragsverarbeiter. Das bedeutet im Umkehrschluss, dass die Verantwortung für die Meldung des Vorfalls bei den Kanzleien oder Unternehmen liegt, die Lodas in Eigenregie nutzen.
Gemäß DSGVO muss eine solche Meldung binnen 72 Stunden nach Bekanntwerden des Vorfalls an die zuständige Landesdatenschutzaufsicht erfolgen. Zusätzlich stehen die Kanzleien in der Pflicht, ihre Mandanten zu informieren. Die betroffenen Firmen wiederum müssen ihre Beschäftigten über den Datenabfluss in Kenntnis setzen.
Eine Tücke liegt in der Unwissenheit vieler Betroffener. Wer eine fremde Abrechnung erhalten hat, bemerkte den Fehler zwar sofort. Der Betrieb, dessen Daten fälschlicherweise abgewandert sind, weiß dagegen oft noch nichts von seinem Pech. Die Datev arbeitet derzeit laut Born daran, den Kreis der betroffenen Kunden zu identifizieren und diese gezielt zu informieren. Erst im Anschluss könnten die gesetzlich vorgeschriebenen Meldeketten überhaupt in Gang gesetzt werden.
Weiterlesen nach der Anzeige
(nen)
Künstliche Intelligenz
Alles im Blick: Android-Smartphone Vivo X300 Pro mit Zeiss-Kamera im Test
Die Smartphones mit den besten Kameras sind in aller Regel in der Luxusklasse zu finden, und da macht das Vivo X300 Pro mit seinem Preis von fast 1300 Euro keine Ausnahme. Der Hersteller Vivo ist vor allem in Asien stark präsent und liegt weltweit auf Rang fünf der größten Smartphonemarken, in Deutschland ist Vivo jedoch kaum verbreitet. Zuletzt hatte das Unternehmen dem deutschen Markt gar für einige Zeit komplett den Rücken gekehrt, jetzt ist Vivo jedoch zurück und muss sich gegen bekanntere Namen behaupten.
Dass Vivo den Fokus auf die Kamera gesetzt hat, wird schon optisch deutlich. Das kreisrunde Kameraelement fällt sofort ins Auge und steht weit aus der Smartphonerückseite hervor. Diese besteht, ganz dem Zeitgeist folgend, aus mattem Glas, das von einem sauber verarbeiteten Metallrahmen an Ort und Stelle gehalten wird.
Drei Kameras haben auf der Rückseite Platz: eine Hauptkamera mit 50 Megapixel, großer Blende und großem Sensor, ein Ultraweitwinkel, ebenfalls mit 50-Megapixel-Sensor, und ein Tele. Das bringt sogar 200 Megapixel auf dem Sensor unter, die Brennweite ist mit auf Kleinbild umgerechneten 85 Millimetern knapp viermal so lang wie die 24 Millimeter der Hauptkamera. Selfies schießt das X300 Pro ebenfalls mit 50 Megapixel. Die Kameras hat Vivo zusammen mit Zeiss entwickelt, das blaue Logo des Optikspezialisten prangt in der Mitte des Kameramoduls.
Das war die Leseprobe unseres heise-Plus-Artikels „Alles im Blick: Android-Smartphone Vivo X300 Pro mit Zeiss-Kamera im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Bist du über 18? Apple beginnt in ersten Ländern mit iPhone-Altersprüfung
Apple hat offensichtlich damit begonnen, das Alter von Kunden beim Zugriff auf Inhalte zu überprüfen. In ersten Ländern blockiert das Unternehmen nun den Download von Apps mit einer Altersfreigabe von „18+“, solange nicht durch „angemessene Methoden“ nachgewiesen wurde, dass der Zugriff durch einen Erwachsenen erfolgt. Der App Store führe diese Prüfung automatisch durch, teilte Apple gegenüber Entwicklern mit. Die Alterssperre gilt ab sofort in Australien, Brasilien und Singapur. Was genau unter diese „angemessenen Methoden“ falle, erläuterte das Unternehmen nicht.
Weiterlesen nach der Anzeige
Kreditkarten- oder Ausweis-Scan erforderlich
Einzelnen Nutzerberichten aus Großbritannien zufolge versucht Apple auch dort, das Alter anhand der Kreditkartendaten zu verifizieren. „Bestätigen Sie, dass Sie 18+ sind, um Ihre Einschränkungen zu aktualisieren“, lautet der übersetzte Text aus einem Systemdialog, der offenbar aus der Beta von iOS 26.4 stammt. „Um diese Einschränkungen zu ändern, setzt Großbritannien voraus, dass Sie bestätigen, ein Erwachsener zu sein“, erläutert Apple weiter.
Im Kleingedruckten merkt der Konzern an, für die Altersprüfung werde die im Account hinterlegte Kreditkarte herangezogen oder der Zeitraum beachtet, für den das Nutzerkonto bereits besteht. Alternativ könne es „helfen“, das Alter über das Einscannen einer Kreditkarte zu verifizieren. Auf Reddit berichtet ein anderer Nutzer, er habe alternativ auch seinen Ausweis abfotografieren können. Wie Apple diese sensiblen Daten konkret erfasst und verwaltet, bleibt unklar. Bis das Alter bestätigt wurde, sind App-Downloads und In-App-Käufe dem Hinweis zufolge gesperrt.
App-Store-Betreiber als Jugendschützer
Die Forderungen nach einer Altersprüfung durch die großen App-Store-Betreiber Apple und Google wurden in den vergangenen Monaten immer lauter. Apple wies dies bislang unter Verweis auf Datenschutz von sich, man wolle nicht zentral die Ausweisdaten von Nutzern speichern. Alterssperren sind plötzlich in mehreren Ländern anzutreffen, etwa bei Social Media oder rund um pornografische Inhalte – letztere dürfen allerdings gar nicht in den App Store. Bei Apps, die dort inzwischen als 18+ eingestuft sind, handelt es sich hauptsächlich um leicht anrüchige Video-Chat-Apps und Sportwetten.
(lbe)
Künstliche Intelligenz
Atomwaffen als erste Wahl: KI neigt zur Eskalation
Large Language Models (LLMs) sind schon bei kleinen Aufgaben, wie Textarbeiten oder Programmierung, nicht zu entmutigen: Egal, wie aussichtslos die Situation erscheint – sie präsentieren immer eine Lösung oder zumindest etwas, das sie dafür halten. Würde man GPT-5.2, Claude Sonnet 4 oder Gemini 3 Flash allerdings als Krisenberater einsetzen, hätte das katastrophale Folgen, wie Forscher des King’s College London untersucht haben.
Weiterlesen nach der Anzeige
In Konfliktsimulationen seien in 95 Prozent der Planspiele am Ende taktische Atomwaffen zum Einsatz gekommen, berichten sie in einem wissenschaftlichen Papier. Kein Modell wählte jemals die Option der vollständigen Kapitulation. Und nur in 18 Prozent der Fälle deeskalierten die Modelle nach einem nuklearen Ersteinsatz. Als mögliche Ursache gilt, dass Nachgeben durch das Training strukturell blockiert sein könnte. Und während zu vermuten wäre, dass eine Maschine unter Zeitdruck besonnener reagieren kann als ein Mensch, zeigte der Modellversuch, dass Modelle in solchen Situationen erst zur Höchstform aufliefen und noch wahrscheinlicher einen vollständigen Atomkrieg anzettelten.
„Nukleares Tabu“ ist der KI nicht so wichtig
Dass das „nukleare Tabu“ einer KI weniger wichtig ist als dem Menschen, dürfte vermutlich damit zusammenhängen, dass das Szenario eines Atomkriegs für Menschen mit Gefühlen behaftet ist. Die KI wählt diese Optionen hingegen genauso waghalsig und explorativ wie den Einsatz konventioneller Waffen.
Untersucht wurden 21 Planspiele mit insgesamt 329 Zügen. Die KI musste ausführlich ihre Denkprozesse darlegen, sodass 780.000 Wörter zusammenkamen. Es ist nicht die erste Studie, die eine KI als Kriegsentscheider untersuchte. Im Jahr 2024 veröffentlichten bereits unter anderem Forscher der Universitäten Stanford und Georgia Tech Untersuchungsergebnisse, die zu ähnlichen Befunden kamen. Der Hang zur Eskalation hat sich mit neueren Modellen aber offenbar nicht geändert, wie die jetzige Studie aus London zeigt. Zudem wurde erstmals untersucht, wie sich die LLMs bei Zeitdruck verhalten, bei Simultanzügen und wenn Signale und Aktion voneinander getrennt werden.
KI immer mehr in Militäreinsätzen gefragt
Weiterlesen nach der Anzeige
Bei Entscheidungen über Krieg und Frieden dürften Militärs weltweit die künstliche Intelligenz noch zurückhaltend einsetzen, sagte der Forscher Tong Zhao von der Universität Princeton der Wissenschaftspublikation „New Scientist“. Allerdings könnte die Vorgehensweise der KI schon im Kleinen gefährlich sein, wenn einzelne Waffen mit KI-Hilfe gesteuert werden oder gar autonom Entscheidungen treffen sollen. Zhao warnt zudem, dass bei extrem knappen Zeitfenstern der Druck wachsen könnte, KI stärker einzubeziehen. International gibt es bereits Diskussionen über eine politische Regulierung des Einsatzes von KI beim Militär.
(mki)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
