Künstliche Intelligenz
IT-Sicherheit in Europa kontra USA: „Den Traum habe ich verstanden“
Die wilde Welt der Cybersecurity wird dank KI noch wilder – und IT-Sicherheitsabteilungen spüren den Druck von außen wie innen. Während Malware dank KI ständig gefährlicher und für Nutzer schwerer erkennbar wird, versuchen Unternehmen zu sparen, indem sie Aspekte ihrer Security KI-fizieren, mit Ergebnissen, die durchaus umstritten sind.
Weiterlesen nach der Anzeige
Im Interview mit heise online spricht Zac Warren, oberster Cyber-Security-Berater EMEA beim Endpoint-Security-Spezialisten Tanium, über die aktuelle Lage. Der Sicherheitsexperte hat eine interessante Perspektive: Er ist in den USA geboren und aufgewachsen, kennt den dortigen IT-Security-Markt gut, ist aber seit 30 Jahren auch in der EU aktiv und hat die feinen, kleinen Unterschiede am eigenen Leib spüren können.
heise online: Herr Warren, wie beurteilen Sie die aktuelle Cybersicherheitslage – speziell in Europa und der EMEA-Region? Wo liegen aus Ihrer Sicht die größten Schmerzpunkte im Vergleich zu anderen Märkten?
Zac Warren: Zunächst einmal gilt: Europa ist nicht gleich Europa. Es gibt sehr viele unterschiedliche Länder, Sprachen und Erwartungen an IT und Organisationen. Wenn man dann noch auf Deutschland schaut, wo ich selbst lebe, spielt der Mittelstand als wirtschaftliches Rückgrat eine ganz besondere Rolle.

Zac Warren, Chief Security Advisor EMEA bei Tanium.
(Bild: Tanium)
Genau daraus ergeben sich für mich viele sicherheitsrelevante Fragen. Nehmen wir große Automobilhersteller – und all die mittelständischen Zulieferer, die an ihnen hängen. Da mache ich mir vor allem Sorgen über Supply-Chain-Angriffe. Kann ich meinen Partnern wirklich vertrauen? Investieren sie genauso ernsthaft in Cybersicherheit wie ich selbst? Ich kann alles richtig machen, alle Vorgaben erfüllen, mich stark auf EU-Compliance fokussieren – das ist ja auch ein europäisches Alleinstellungsmerkmal. Aber wenn meine Partner das nicht tun, fast nichts oder nicht genug in Sicherheit investieren, dann schwächt ihre Nachlässigkeit am Ende auch meine eigene Sicherheitslage.
Ihnen ist sicher auch der Begriff „Neuland“ geläufig, mit dem wir hier in Deutschland so tun, als seien das alles unbekannte Probleme, die noch niemand kannte.
Ja, da muss ich ehrlich gesagt ein bisschen schmunzeln, wenn es in Deutschland um Digitalisierung geht. Wir reden darüber schon seit 1998 – da war ich das erste Mal hier. Ich habe viel mit Behörden zu tun, und als US-Amerikaner, der in Deutschland arbeitet, ist das manchmal schon etwas irritierend. Meine Frau ist als Lehrerin selbst Beamtin, ich weiß also, wovon ich rede. Das hat viel Gutes, kann aber auch bremsen.
Weiterlesen nach der Anzeige
Es gibt die berühmten kulturellen Besonderheiten in Europa – eine gewisse Zurückhaltung gegenüber Innovation oder auch ein fehlendes Verständnis dafür. Viele Menschen sind stark auf Sicherheit bedacht, vor allem auf Jobsicherheit. Fehler zu machen, schnell zu scheitern und daraus zu lernen – das ist in den USA viel stärker akzeptiert. In Großbritannien, Frankreich oder Deutschland sehe ich oft, dass genau diese Angst vor Fehlern Innovation ausbremst.
Gleichzeitig ist Europa aber auch die Region, die besonders stark auf Regulierung und Aufsicht und Transparenz drängt – etwa bei KI oder Cybersicherheit. Und das halte ich durchaus für positiv.
Europa will oft erst einmal alle Beweise sehen, dass etwas funktioniert.
Absolut. In den USA, vor allem in Kalifornien, verkauft man den Leuten gerne den Traum. In Deutschland heißt es dann: Den Traum habe ich verstanden, jetzt erzählen Sie mir bitte, wie es technisch funktioniert. Gebt mir die Bits und Bytes. Das passt zur Ingenieurskultur hier – man will die Details kennen. Das schätze ich sehr, weil man dann wirklich in die Tiefe gehen und belastbare Sicherheitsarchitekturen aufbauen kann.
Zurück zur Cybersicherheit: Wo sehen Sie aktuell die größten Bedrohungen? Insider-Angriffe? Ransomware? Selbst der von Ihnen erwähnte Mittelstand scheint ständig unter Beschuss zu stehen.
Aus meiner Sicht kommt der größte Angriffsvektor immer noch von innen. Meist ist er selbst verschuldet – und nicht böswillig. Menschen machen einfach Fehler, weil sie nicht ausreichend für Cybersicherheit sensibilisiert sind. Auch wenn wir ein Technologieunternehmen sind, versuche ich in Gesprächen mit CIOs und CISOs immer wieder, den Fokus auf den Faktor Mensch zu lenken. Cybersecurity-Schulungen müssen ernst genommen werden. Mitarbeiterinnen und Mitarbeiter müssen verstehen, wie ihre tägliche Arbeit Sicherheitsrisiken verursachen kann.
Haben Sie konkrete Beispiele?
Ich war in IT-Abteilungen, die nicht wussten, wie sie Endgeräte einfacher absichern könnten. Oft sind es Basics: USB-Sticks sollten in Unternehmensumgebungen schlicht nicht erlaubt sein – wegen Datenabfluss und Malware. Und doch findet man viele Organisationen, die sich damit noch nie beschäftigt haben.
Das sind aus meiner Sicht größere Risiken als staatliche Akteure wie Russland, China oder Iran. Die größte Gefahr sind ganz banale Fehler. Dagegen kann man viel tun – und genau da setzt Tanium mit seiner Software an: bei Transparenz und Sichtbarkeit. Wir sagen intern gerne scherzhaft: Warum sollte ich mir Sorgen über Ninjas machen, die durchs Dachfenster kommen, wenn Türen und Fenster offenstehen?
Der deutsche Mittelstand investiert aktuell sehr viel Energie in den Schutz vor den „Ninjas“. Aber oft stehen die Fenster sperrangelweit offen. In vielen Umgebungen könnte ein Angreifer problemlos geistiges Eigentum abziehen.
Über die Risiken durch KI-gestützte Malware haben wir noch gar nicht gesprochen.
Das ist spannend. Viele KI-Anbieter wie OpenAI, Microsoft oder Google bauen bewusst Schutzmechanismen ein, sogenannte Guardrails. Wenn ich eine KI bitte, Schadsoftware zu schreiben, bekomme ich ein klares Nein. Im Darknet sieht das anders aus. Ein frustrierter Ex-Mitarbeiter ohne Programmierkenntnisse kann sich dort Malware-as-a-Service oder KI-Tools zur Malware-Entwicklung besorgen.
Hinzu kommt: Spear Phishing ist dank KI extrem gut geworden. Ich habe kürzlich eine solche Mail gesehen – zum Glück abgefangen. Auf den ersten Blick war sie perfekt. Angeblich von Microsoft, alles sah normal aus. Erst bei genauem Hinsehen fiel auf, dass ein Buchstabe – ich glaube ein „S“ – eigentlich ein kyrillisches Zeichen war. Das war kaum zu erkennen.
Wo sehen Sie den echten Mehrwert von KI in der Cyber-Verteidigung? Vieles wirkt derzeit sehr gehypt.
Richtig eingesetzt kann KI enorm helfen. Zum Beispiel bei der Ausbildung junger Security-Analysten. Statt sie monatelang einem Senior über die Schulter schauen zu lassen, kann man sie mit KI-Agenten arbeiten lassen – etwa bei niedrig priorisierten Fällen. Das beschleunigt den Lernprozess enorm, ohne die erfahrenen Kollegen zu blockieren.
Was ich für gefährlich halte, ist aber der Versuch, die erste Analysten-Ebene komplett durch KI zu ersetzen. Irgendwann gehen die Seniors in Rente oder wechseln den Job – ich habe das selbst erlebt, ich war selbst mal ein Senior Analyst, heute mache ich etwas anderes. Ohne Nachwuchs fehlt dann die Erfahrung. KI sollte unterstützen, nicht ersetzen.
Auf Ihrer Hausmesse war oft von „Autonomous IT“ die Rede. Was meinen Sie damit konkret?
Es geht darum, Menschen von Routineaufgaben zu entlasten – etwa vom ständigen Patchen von Systemen. Das ist zwar wichtig, aber nicht die beste Nutzung hochqualifizierter Fachkräfte. Diese Zeit sollte für kreatives, strategisches Denken genutzt werden. Dafür müssen wir allerdings auch viele Menschen weiterqualifizieren, die früher ihre Karriere auf der Patcherei aufbauen konnten.
Gleichzeitig setzen wir KI ein, um Muster zu erkennen und Malware frühzeitig zu identifizieren – idealerweise, bevor sie überhaupt Schaden anrichten kann. Früher musste man Schadsoftware in einer Sandbox ausführen, um zu sehen, was passiert. Heute sehen wir große Fortschritte bei der Erkennung, ohne diesen Umweg zu gehen. Dafür müssen die Trainingsdaten natürlich gut sein.
Der Autor reiste auf Einladung von Tanium zur Tanium Converge 2025.
(bsc)
Künstliche Intelligenz
AirDrop-Support für Android: Google weitet Verfügbarkeit auf weitere Geräte aus
Googles Quick Share und Apples AirDrop arbeiten seit dem 21. November 2025 zusammen, sodass Daten zwischen iPhones, Macs und Android-Geräten nahtlos ohne zusätzliche Software übertragen werden können. Den Startschuss machte Google mit den eigenen Pixel-10-Geräten. In diesem Jahr soll der Datenaustausch für weitere Android-Geräte freigegeben werden. Unter anderem bestätigte Nothing den Einzug der Funktion.
Weiterlesen nach der Anzeige
AirDrop-Support für mehr Android-Geräte
Im Zuge einer Veranstaltung bestätigte Eric Kay, Vice President of Engineering für die Android-Plattform, gegenüber Android Authority, dass die AirDrop-Interoperabilität in diesem Jahr weit über Pixel-Smartphones hinaus ausgeweitet werden soll.

Verstehen sich: Quick Share auf Android-Smartphone mit AirDrop auf iPhone.
(Bild: Google)
Weiter erläuterte er: „Wir haben viel Zeit und Energie investiert, um sicherzustellen, dass wir etwas entwickeln konnten, das nicht nur mit dem iPhone, sondern auch mit iPads und MacBooks kompatibel ist.“ Nachdem Google gezeigt habe, dass dies funktioniere, arbeitet das Unternehmen mit seinen Partnern daran, die Interoperabilität „auf den Rest des Ökosystems auszuweiten“. Nutzerinnen und Nutzer könnten sich „schon bald auf einige spannende Ankündigungen freuen“, sagte Kay.
Der Google-Manager nannte noch keine Partner für den AirDrop-Support, allerdings kündigte Nothing-CEO Carl Pei schon im November an, diese Funktion auf den eigenen Smartphones zu integrieren. Ferner deutete Qualcomm auf X an, AirDrop-Unterstützung auf Smartphones mit Snapdragon-Chip zu bringen.
Offenbar war die Interoperabilität zwischen Quick Share und Apples AirDrop kein Projekt, das nur für die eigenen Pixel-Geräte bestimmt war. Denn Google hatte die AirDrop-Interoperabilität nicht an eine bestimmte Systemkomponente für Pixel-Geräte gekoppelt. Stattdessen hat Google die Quick-Share-Erweiterung von einem System-App-Stub zu einer vollständigen APK mit eigenem Play-Store-Eintrag erweitert. Durch diese Entwicklung hat Google den AirDrop-Support zu einer vollen Quick-Share-Funktion gemacht. Ob die Erweiterung jedoch für sämtliche Geräte mit Quick-Share-Unterstützung angeboten wird, ist noch unklar.
Leichterer Umstieg zwischen iOS und Android kommt
Weiterlesen nach der Anzeige
Zusätzlich zur kommenden AirDrop-Interoperabilität für Android-Geräte bemüht sich Google laut Kay darum, den Umstieg auf Android für iPhone-Nutzer zu vereinfachen: „Wir werden auch daran arbeiten, den Umstieg für diejenigen zu vereinfachen, die sich dafür entscheiden, ihre Daten zu übertragen, und sicherzustellen, dass sie alles haben, was sie von ihrem alten Telefon hatten. Es gibt also noch viel mehr zu tun.“
Lesen Sie auch
Schon im Dezember 2025 bestätigten Google und Apple, dass sie hinsichtlich eines einfacheren Datentransfers zwischen Android und iOS enger zusammenarbeiten. Dabei sollen mehr Dateiformate als bisher von einem aufs andere Betriebssystem übertragen werden können. Unter anderem sollen Kontakte, Kalenderereignisse, Nachrichten, Fotos, Dokumente, WLAN-Netzwerke, Passwörter und auch Daten aus Apps von Drittanbietern transferiert werden können. Im Unterschied zu den bisherigen Lösungen soll der optimierte Weg auch drahtlos ablaufen. Die EU begrüßte bereits Apples und Googles Pläne, einen nahtloseren Datenumzug zwischen iPhone und Android-Geräten zu ermöglichen.
(afl)
Künstliche Intelligenz
Grafikkarten: Spielern könnte eine jahrelange Durststrecke bevorstehen
PC-Spieler könnte eine mehrjährige Grafikkarten-Durststrecke erwarten. Laut The Information hat Nvidia nicht nur die Neuauflage GeForce RTX 5000 Super fürs Jahr 2026 eingesackt. Auch die Nachfolgegeneration GeForce RTX 6000 soll Nvidia ins Jahr 2028 verschoben haben.
Weiterlesen nach der Anzeige
Laut The Information wäre Nvidia selbst nach ursprünglicher Planung schon mit den GeForce RTX 6000 spät dran gewesen. Die Serienproduktion sollte demnach erst Ende 2027 starten. Wenn sie wie berichtet frühestens Anfang 2028 beginnt, ist mit einer Markteinführung erst ab dem Sommer 2028 zu rechnen. Hinter der Generation dürfte sich der Codename Feynman verbergen. KI-Beschleuniger mit Feynman-Architektur stehen ebenfalls für das Jahr 2028 an.
Die GeForce-Modelle RTX 5080 Super, RTX 5070 Ti Super und RTX 5070 Super sollten eigentlich schon 2025 erscheinen. Nach mehreren Verzögerungen bringt Nvidia sie laut mehreren Quellen auch im Jahr 2026 nicht mehr. Fraglich ist, ob die Neuauflage 2027 noch erscheint. Das wäre zwei Jahre nach der Markteinführung der ursprünglichen RTX-5000-Grafikkarten.
Der Grund liegt auf der Hand: Die Super-Varianten sollten 50 Prozent mehr Speicher erhalten als die bisherigen Modelle. Allerdings ist das notwendige DRAM knapp. Die hohe Nachfrage durch KI-Rechenzentren hat eine weitreichende Speicherkrise ausgelöst. Schon alle bisherigen Gaming-Grafikkarten sind in den vergangenen Wochen erheblich teurer geworden.
Der KI-Kunde ist König
Sowohl Nvidia als auch AMD konzentrieren sich auf KI-Beschleuniger. Die Topmodelle mit High-Bandwidth Memory (HBM) kosten 20.000 Euro aufwärts und bringen den Firmen riesige Margen ein. Nvidia lag zuletzt bei einer Bruttomarge von über 73 Prozent. Die neue Rubin-Generation soll nur für Rechenzentren erscheinen und für Hyperscaler noch 2026 verfügbar sein.
Weiterlesen nach der Anzeige
Die Grafikchips der GeForce-Serie RTX 5000 und dessen GDDR7-Speicher setzt Nvidia derweil auch bei den teureren Servermodellen wie der RTX Pro 6000 Blackwell (ab 8400 €) ein (nicht zu verwechseln mit der kommenden GeForce-Serie RTX 6000).
AMD-Chefin Lisa Su sagte in der Analystenkonferenz zu den jüngsten Geschäftszahlen offen: „Unser Schwerpunkt ist Enterprise und weiter im Premium-Segment am oberen Ende des Marktes zu wachsen.“ Wann die nächsten Radeon-Grafikkarten erscheinen, ist unbekannt.
Update
06.02.2026,
13:04
Uhr
Anmerkung zu Feynman eingefügt.
(mma)
Künstliche Intelligenz
Jetzt in der Make 1/26: 3D-Druck-Slicer im Vergleich
Slicer wandeln CAD-Modelle mit wenigen Klicks in druckbare Pfade um – doch sie können längst viel mehr. Praktische Werkzeuge unterstützen beim Bearbeiten von Modellen, ohne dass man dafür 3D-Software beherrschen muss. Doch welche Funktionen lohnen sich wirklich? Und spielt die Wahl des Slicers überhaupt eine Rolle? Diesen Fragen gehen wir in der Make 1/26 nach.
Weiterlesen nach der Anzeige
Zunächst widmen wir uns dem OrcaSlicer, der sich wachsender Beliebtheit erfreut. Das Community-Projekt unterstützt bereits mehr als 320 Drucker, vereint Funktionen von Ultimaker Cura, PrusaSlicer und BambuStudio und bringt zahlreiche eigene Verbesserungen mit: von Baumstützen über versteckte Nähte, bis hin zu verbesserten Fuzzy-Skin-Mustern. Um zu verstehen, was den OrcaSlicer für Anfänger und auch 3D-Druck-Veteranen so interessant macht, werfen wir einen Blick auf auf seine Wurzeln und die Beziehung zu den anderen großen Slicern.

Streifen auf PETG-Drucken lassen sich mit einer Einstellung im Slicer vermeiden.
Für alle, die nach der Theorie gleich loslegen wollen, haben wir nützliche Funktionen zusammengetragen, mit denen sich schneller, schöner und stabiler drucken lässt – und die sich in unserem Redaktions- und Maker-Alltag bewährt haben: Wir zeigen etwa, was gegen Streifenbildung bei PETG hilft, wie Wände und die Ausrichtung sich auf die Stabilität auswirken oder was man mit Modifiern anstellen kann. Da jeder von uns seinen Drucker und Slicer verschieden verwendet, ist eine vielseitige Sammlung an Tipps und Tricks entstanden.
Die aktuelle Make: Am Kiosk und online erhältlich
Die Ausgabe 1/26 ist online und am Kiosk erhältlich. Mit einem unserer Abos lag das Heft sogar bereits im Briefkasten. Außerdem können Sie die Make bequem als Printversion oder PDF im Heise Shop bestellen – bis zum 20.02. sogar versandkostenfrei. Wenn Sie die Make lieber digital lesen, können Sie das in unseren Apps für iOS und Android. Online finden Sie auch das Inhaltsverzeichnis der Make 1/26.
(akf)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
