Künstliche Intelligenz
Googles ungeschützte API-Keys wegen Gemini-KI ein Sicherheits- und Kostenrisiko
Google arbeitet an der Behebung eines Problems mit eigenen API-Keys, nachdem Sicherheitsforscher auf möglichen Missbrauch hingewiesen haben. Denn die in vielen Webseiten per Klartext integrierten Schlüssel für den Zugriff auf Googles Cloud-Dienste wie Maps oder Firebase werden vielfach auch für Gemini verwendet. Mit diesen öffentlich sichtbaren API-Keys können Unbefugte die Google-KI nicht nur verwenden und somit Kosten verursachen, sondern auch auf zu Gemini hochgeladene Dokumente und Datensätze zugreifen – ein Datenschutz- und Sicherheitsproblem.
Weiterlesen nach der Anzeige
Die API-Keys werden für den Zugriff auf die seit Anfang 2017 allgemein verfügbaren Google Cloud Endpoints verwendet. Dieser Code wird in Webseiten eingebunden, um etwa auf Googles Kartendienst oder Datenbanken zuzugreifen oder um Nutzer anzumelden. Solche API-Keys sind im Quelltext einzusehen und laut Google-Angaben kein Geheimnis. Das war vor Jahren kein Problem, doch dann hat Google Gemini eingeführt und mit der künstlichen Intelligenz (KI) auch die „Generative Language API“ (Gemini-API).
Problem: Alte API-Keys für neue KI-Zwecke
Mit der Gemini-API können Projekte die Google-KI einsetzen, etwa Gemini in Python-Programmen. Doch Google erlaubt dafür auch die Verwendung bereits existierender API-Keys, die möglicherweise zuvor in Webseiten integriert wurden. Laut den Sicherheitsforschern von Truffle Security erfolgt die Aktivierung solcher API-Keys für Gemini ohne Warnung oder zusätzliche Bestätigung oder Benachrichtigung per E-Mail. Zudem wird selbst bei der Generierung eines neuen API-Keys der Google-Cloud eine unsichere Standardeinstellung vorgegeben, denn dieser Schlüssel kann für alle API verwendet werden, einschließlich Gemini.
Außenstehende können sich Zugriff auf die API-Keys durch einfaches Auslesen des Quelltexts von Webseiten verschaffen. Damit lassen sich private Daten einsehen, die für Gemini zuvor benutzt wurden, sowie die Google-KI in der Cloud selbst verwenden, was abhängig von den API-Zugriffen und dem gebuchten KI-Modell zusätzliche Kosten verursachen kann. Unbefugte könnten das für Gemini gebuchte Kontingent komplett ausschöpfen, sodass keine legitimen API-Zugriffe mehr möglich sind.
Kostenexplosion wegen Missbrauch von API-Key
Ein Entwickler eines kleinen mexikanischen Start-ups berichtet bei Reddit bereits von einem solchen Fall. Üblicherweise beträgt die monatliche Rechnung für den API-Key der Google-Cloud 180 US-Dollar. Doch Mitte Februar wurde der Schlüssel von Unbefugten massiv für die Bildgenerierung und Texterstellung von Gemini 3 Pro verwendet, sodass die Rechnung auf 82.314,44 Dollar gesprungen ist. Damit ist das dreiköpfige Start-up vom Bankrott bedroht, sollte Google auf dieser Rechnung beharren.
Weiterlesen nach der Anzeige
Lesen Sie auch
Dies dürfte kein Einzelfall bleiben, denn die Sicherheitsforscher haben 2863 öffentlich sichtbare API-Keys entdeckt, die für unbefugte Gemini-Zugriffe missbraucht werden könnten. Das betrifft nicht nur Hobbyprojekte, sondern auch Finanzinstitute, Sicherheitsfirmen, Personalvermittlungsagenturen und sogar Google selbst. Das hat auch Google im Dezember 2025 davon überzeugt, sich dieser Sache anzunehmen. Anfang Februar erklärte Google, dass man noch an der Behebung der Ursache arbeitet. Der Konzern gibt in der Dokumentation der Gemini-API aber bereits einige „Tipps zu unerwarteten Kosten aufgrund von Sicherheitslücken“ und „Sicherheitsmaßnahmen bei durchgesickerten Schlüsseln“.
Nutzer der API-Keys sollten in der Konsole der Google Cloud Platform (GCP) kontrollieren, ob die Gemini-API aktiviert ist. Sollte dies der Fall sein, sollte der Einsatz der API-Keys genau überprüft werden. Öffentlich sichtbare API-Keys sollten umgehend ausgetauscht werden.
(fds)
Künstliche Intelligenz
So funktioniert ArcticDB: Vom Dataframe zur Hochleistungsdatenbank
Data-Scientists sind häufig mit enormen Mengen an Zeitreihendaten konfrontiert, beispielsweise bei der quantitativen Analyse. Um diese Herausforderung zu meistern, entwickelte die Man Group, ein britischer Finanzdienstleister, eine eigene, Dataframe-zentrierte Datenbank: ArcticDB. Das Besondere: Das System speichert pandas-Dataframes spaltenorientiert und stellt jede Änderung als neue Version bereit. Durch diese Art der Speicherung, unveränderliche (immutable) Versionierung und native pandas-Integration erleichtert ArcticDB den Umgang mit riesigen Datensätzen.
- Klassische Datenbanken und Dateiformate stoßen beim Verarbeiten riesiger Datenmengen an ihre Grenzen.
- Die Open-Source-Datenbank ArcticDB ist speziell für Big Data und High-Performance Computing konzipiert: Sie speichert spaltenbasiert statt zeilenweise, nutzt Versionierung sowie Append-Streaming und integriert pandas nativ.
- Alternative Produkte wie ClickHouse, TimescaleDB und InfluxDB oder Formate und Techniken wie Apache Parquet und Delta Lake haben eine andere Ausrichtung. Sie verwenden SQL und klassische Time-Series-Konzepte.

Dr. Fabian Deitelhoff ist IT-Leiter Head of Software Development und Head of Product bei der Education Partners GmbH. Zudem ist er als Autor, Dozent und Softwareentwickler tätig.
Herkömmliche Dateiformate und Data-Warehouse-Systeme reichen nicht immer aus, um Dataframes mit Milliarden Zeilen effizient zu verarbeiten. Das Konzept von ArcticDB stellt Dataframes in den Mittelpunkt des Datenmodells (siehe Artikel „Our Journey Creating ArcticDB: Solving the Challenge of Dataframes at Scale“ von William Dealtry, einem der Hauptentwickler von ArcticDB). Zwei Ideen sind dabei zentral: günstiger Cloud-Speicher und Immutabilität. Statt Daten nachträglich zu ändern, erzeugt ArcticDB bei jeder Schreiboperation eine neue Version, was Skalierung und Zeitreisen ermöglicht. Daraus leiten sich die Kerneigenschaften des Datenbanksystems ab:
- pandas in, pandas out: Die Python-API arbeitet direkt mit Dataframes und verzichtet auf SQL.
- Serverlos und unveränderlich: ArcticDB läuft als Embedded-Engine auf dem Client, nutzt Objektspeicher (S3, LMDB) und speichert Daten als unveränderliche Versionen.
- Spaltenorientiert und leistungsfähig: Die Datenbank nutzt spaltenbasierte, komprimierte Segmente, um sehr große Dataframes schnell zu lesen und zu schreiben. Persistente Strukturen schützen ältere Versionen vor Beschädigung.
Die genannten Prinzipien bestimmen Architektur, API und Anwendungsfälle.
Das war die Leseprobe unseres heise-Plus-Artikels „So funktioniert ArcticDB: Vom Dataframe zur Hochleistungsdatenbank“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
MCP verstehen und KI-Agenten im Alltag nutzen – das c’t-Webinar
Viele Aufgaben folgen festen Mustern: Informationen suchen, Daten übertragen, Formulare ausfüllen, Termine koordinieren. Bislang erledigen Menschen diese Schritte selbst – oder automatisieren sie mit hohem Aufwand. Mit agentischer KI ändert sich das grundlegend: Systeme können Abläufe verstehen, eigenständig ausführen und verschiedene Anwendungen miteinander verbinden. In der Praxis könnte das so aussehen: Sie beauftragen eine KI mit der Planung Ihres Traumurlaubs – und das System erledigt den Rest: Es bucht das Hotel, organisiert die Anreise und reserviert den Tisch im Lieblingsrestaurant. Was heute noch nach Science-Fiction klingt, entwickelt sich rasant zur Praxis.
Weiterlesen nach der Anzeige
Das Model Context Protocol (MCP) bildet dafür die technische Grundlage. Es verbindet große Sprachmodelle direkt mit Anwendungen und Online-Diensten und macht sie damit handlungsfähig. KI-Agenten können eigenständig Aufgaben ausführen, Daten aus unterschiedlichen Quellen abrufen und Aktionen in bestehenden Systemen anstoßen.
Agentische KI im Praxiseinsatz
Im Webinar „MCP verstehen: So arbeiten KI-Agenten für Sie“ erfahren Sie, was hinter dem Konzept steckt und wie sich MCP praktisch nutzen lässt. Die c’t-Redakteure Jan Mahn, Jo Bager und Sylvester Tremmel erklären, wie MCP funktioniert und weshalb es auch trotz der Erfindung von KI-Agents wie OpenClaw noch eine wichtige Rolle spielt. Anhand realer Beispiele zeigen sie, wie agentische KI schon heute Arbeitsabläufe automatisiert und den Umgang mit Software verändert – und wo Grenzen sowie Risiken liegen.
Praxiswissen für Anwender und Entwickler
Entwickler lernen, wie sie ihre Anwendungen an KI anbinden. Die Referenten demonstrieren konkrete Programmierbeispiele mit realen Datenquellen und erläutern typische Integrationsszenarien. Gleichzeitig greifen sie zentrale Sicherheitsfragen auf: Welche Risiken entstehen, wenn KI direkten Zugriff auf Systeme und Daten erhält? Wie lassen sich Datenschutz und Zugriffskontrollen sauber umsetzen? Sie erhalten praxisnahe Empfehlungen für einen sicheren und effizienten Einsatz von MCP.
Nach dem Webinar können Sie einschätzen, wie agentische KI funktioniert – und wo sie Ihren Arbeitsalltag oder eigene Projekte sinnvoll unterstützt. Technische Vorkenntnisse sind nicht erforderlich; erste Erfahrungen mit Sprachmodellen sind hilfreich.
Anmeldung und weitere Informationen
Weiterlesen nach der Anzeige
- Termin: 26. März 2026
- Uhrzeit: 15:00 bis 18:00 Uhr
- Preis: 69,00 Euro
Zur Teilnahme benötigen Sie lediglich einen aktuellen Browser. Weitere Informationen zum Webinar sowie Details zur Anmeldung finden Sie auf der Website zum Webinar.
(abr)
Künstliche Intelligenz
Kommunikation im Blackout: Diese Optionen haben Sie
Der Brandanschlag auf die Hoch- und Mittelspannungsleitungen nahe des Heizkraftwerks Lichterfelde in Berlin hat gezeigt, dass bei Stromausfall nicht bloß etwas dunkler wird. Über 100.000 Menschen verloren in den frühen Morgenstunden des 3. Januars nicht nur Heizung und Licht, sondern wenig später auch den Zugang zu Fest- und Mobilfunknetzen.
Die Konsequenzen werden einem erst bewusst, wenn es passiert: Man kann plötzlich nur auf Rufweite kommunizieren. Der Kontakt zur Familie im anderen Stadtteil bricht ab und lebensrettende Hilfe ist unter Umständen einen fünfzehnminütigen Fußmarsch entfernt.
- Sprechfunk ist ideal, um unkompliziert im näheren Umkreis zu kommunizieren.
- Mit Mesh-Chats kann man auch ohne teure Hardware große Reichweiten überbrücken.
- Satellitentelefone sind praktisch, aber teuer in Kauf und Unterhalt.
Im Nachgang wurden Stimmen laut, die bessere Vorbereitung auch der Telekommunikationsnetze auf solche Szenarien forderten. Doch aus technischer Sicht steht längst fest: Insbesondere in mit Mobilfunkzellen gepflasterten Großstädten kann man nicht an allen Antennenstandorten Stromgeneratoren mit Spritreserven für Tage oder gar Wochen vorhalten – die Kosten für Installation und Wartung würden ausufern. Essenzielle Mobilfunkzellen zu versorgen kann helfen, dennoch hat dann das Mobilnetz viele Funklöcher und ist im Falle des Falles schnell überlastet.
Das war die Leseprobe unseres heise-Plus-Artikels „Kommunikation im Blackout: Diese Optionen haben Sie“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 3 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
