Künstliche Intelligenz
Googles ungeschützte API-Keys wegen Gemini-KI ein Sicherheits- und Kostenrisiko
Google arbeitet an der Behebung eines Problems mit eigenen API-Keys, nachdem Sicherheitsforscher auf möglichen Missbrauch hingewiesen haben. Denn die in vielen Webseiten per Klartext integrierten Schlüssel für den Zugriff auf Googles Cloud-Dienste wie Maps oder Firebase werden vielfach auch für Gemini verwendet. Mit diesen öffentlich sichtbaren API-Keys können Unbefugte die Google-KI nicht nur verwenden und somit Kosten verursachen, sondern auch auf zu Gemini hochgeladene Dokumente und Datensätze zugreifen – ein Datenschutz- und Sicherheitsproblem.
Weiterlesen nach der Anzeige
Die API-Keys werden für den Zugriff auf die seit Anfang 2017 allgemein verfügbaren Google Cloud Endpoints verwendet. Dieser Code wird in Webseiten eingebunden, um etwa auf Googles Kartendienst oder Datenbanken zuzugreifen oder um Nutzer anzumelden. Solche API-Keys sind im Quelltext einzusehen und laut Google-Angaben kein Geheimnis. Das war vor Jahren kein Problem, doch dann hat Google Gemini eingeführt und mit der künstlichen Intelligenz (KI) auch die „Generative Language API“ (Gemini-API).
Problem: Alte API-Keys für neue KI-Zwecke
Mit der Gemini-API können Projekte die Google-KI einsetzen, etwa Gemini in Python-Programmen. Doch Google erlaubt dafür auch die Verwendung bereits existierender API-Keys, die möglicherweise zuvor in Webseiten integriert wurden. Laut den Sicherheitsforschern von Truffle Security erfolgt die Aktivierung solcher API-Keys für Gemini ohne Warnung oder zusätzliche Bestätigung oder Benachrichtigung per E-Mail. Zudem wird selbst bei der Generierung eines neuen API-Keys der Google-Cloud eine unsichere Standardeinstellung vorgegeben, denn dieser Schlüssel kann für alle API verwendet werden, einschließlich Gemini.
Außenstehende können sich Zugriff auf die API-Keys durch einfaches Auslesen des Quelltexts von Webseiten verschaffen. Damit lassen sich private Daten einsehen, die für Gemini zuvor benutzt wurden, sowie die Google-KI in der Cloud selbst verwenden, was abhängig von den API-Zugriffen und dem gebuchten KI-Modell zusätzliche Kosten verursachen kann. Unbefugte könnten das für Gemini gebuchte Kontingent komplett ausschöpfen, sodass keine legitimen API-Zugriffe mehr möglich sind.
Kostenexplosion wegen Missbrauch von API-Key
Ein Entwickler eines kleinen mexikanischen Start-ups berichtet bei Reddit bereits von einem solchen Fall. Üblicherweise beträgt die monatliche Rechnung für den API-Key der Google-Cloud 180 US-Dollar. Doch Mitte Februar wurde der Schlüssel von Unbefugten massiv für die Bildgenerierung und Texterstellung von Gemini 3 Pro verwendet, sodass die Rechnung auf 82.314,44 Dollar gesprungen ist. Damit ist das dreiköpfige Start-up vom Bankrott bedroht, sollte Google auf dieser Rechnung beharren.
Weiterlesen nach der Anzeige
Lesen Sie auch
Dies dürfte kein Einzelfall bleiben, denn die Sicherheitsforscher haben 2863 öffentlich sichtbare API-Keys entdeckt, die für unbefugte Gemini-Zugriffe missbraucht werden könnten. Das betrifft nicht nur Hobbyprojekte, sondern auch Finanzinstitute, Sicherheitsfirmen, Personalvermittlungsagenturen und sogar Google selbst. Das hat auch Google im Dezember 2025 davon überzeugt, sich dieser Sache anzunehmen. Anfang Februar erklärte Google, dass man noch an der Behebung der Ursache arbeitet. Der Konzern gibt in der Dokumentation der Gemini-API aber bereits einige „Tipps zu unerwarteten Kosten aufgrund von Sicherheitslücken“ und „Sicherheitsmaßnahmen bei durchgesickerten Schlüsseln“.
Nutzer der API-Keys sollten in der Konsole der Google Cloud Platform (GCP) kontrollieren, ob die Gemini-API aktiviert ist. Sollte dies der Fall sein, sollte der Einsatz der API-Keys genau überprüft werden. Öffentlich sichtbare API-Keys sollten umgehend ausgetauscht werden.
(fds)
Künstliche Intelligenz
Rsbuild 2.0: Schnelleres Bundling, ESM-first und Node 20
Rsbuild 2.0 ist da: Das Major-Release des Build-Tools setzt auf Rspack 2.0, modernisiert zahlreiche Defaults – unter anderem in Richtung ESM-first und Node 20 – und reduziert die Zahl der Abhängigkeiten deutlich. Neue APIs erweitern die Kommunikation zwischen Dev-Server und Client. Gleichzeitig bricht die Version mit mehreren Altlasten: CommonJS-Builds und ein paar Webpack-Abhängigkeiten fallen weg.
Weiterlesen nach der Anzeige
Rsbuild ist ein Build-Tooling-Layer auf Basis des Rust-basierten Bundlers Rspack und Teil des Rstack-Ökosystems. Zu diesem gehören unter anderem Rspress, Rslib und Rstest, die sich eine gemeinsame Build- und Plugin-Architektur teilen.
Rspack 2.0 als Fundament, modernere Defaults
Im Zentrum von Rsbuild 2.0 steht das Upgrade auf Rspack 2.0. Projekte profitieren damit von schnellerem Bundling und neuen Optimierungsmöglichkeiten. Rspack verfolgt einen webpack-kompatiblen Ansatz, arbeitet durch seine Rust-Implementierung aber deutlich schneller.
Parallel dazu modernisiert Rsbuild seine technische Basis. Das Core-Paket erscheint nur noch als ES-Modul, ein CommonJS-Build entfällt. Die Zielplattformen steigen: Für Node.js gilt nun Version 20 als Standard, die Browser-Targets orientieren sich an einem Baseline-Stand von Mai 2025. Das verringert den Bedarf an Transpiling und Polyfills und führt zu kleineren Bundles. Für Node-Ziele erzeugt Rsbuild außerdem standardmäßig unminifizierte ES-Module – Stacktraces bleiben so besser lesbar.
React Server Components und Server-Client-Kommunikation
Neu ist ein experimenteller Support für React Server Components (RSC). Das Plugin rsbuild-plugin-rsc integriert serverseitig gerenderte Komponenten, die Datenabruf und Rendering kombinieren und so weniger JavaScript an den Client schicken. Es baut auf nativer Rspack-Unterstützung auf und nutzt die Environments-API von Rsbuild, um Client- und Server-Kontext gemeinsam zu verwalten. Das Modern.js-Framework setzt das Plugin bereits ein; eine Integration mit TanStack Start ist geplant.
Im Zuge dieser Arbeiten erweitert Rsbuild die Kommunikation zwischen Dev-Server und Browser. Über den bestehenden HMR-Kanal lassen sich jetzt gezielt Nachrichten austauschen: Der Server schickt per hot.send ein Event, das der Client über import.meta.webpackHot.on empfängt. So kann etwa ein serverseitiger Prozess den Client zu einem gezielten Update veranlassen, ohne die gesamte Seite neu zu laden. Ein zusätzlicher WebSocket ist dafür nicht nötig.
Weiterlesen nach der Anzeige
Flexiblerer Server und neues Code-Splitting
Auch die Server-Konfiguration gewinnt an Flexibilität. Die neue Option server.setup erlaubt es, Initialisierungslogik, Middleware oder eigene Endpunkte direkt in der Rsbuild-Konfiguration zu definieren – sowohl für den Dev- als auch den Preview-Server. Das bisherige setupMiddlewares bleibt vorerst erhalten, gilt aber als veraltet.
Beim Code-Splitting führt Rsbuild ein neues splitChunks-Modell ein, das die bisherige Option performance.chunkSplit ergänzt und perspektivisch ersetzen soll. Die Konfiguration orientiert sich nun direkt an Rspack und bietet vordefinierte Presets, etwa um jedes npm-Paket in einen eigenen Chunk aufzuteilen.
Sicherheits-Defaults und weniger Abhängigkeiten
Bei den Sicherheits-Defaults ändert sich ebenfalls einiges: Der Dev-Server lauscht standardmäßig nur noch auf localhost statt auf allen Interfaces. Das verhindert, dass Entwicklungsserver unbeabsichtigt im lokalen Netzwerk erreichbar sind. Außerdem steigt die Proxy-Middleware auf eine neue Version um, die HTTP/2 unterstützt und bekannte Sicherheitslücken schließt.
Die Abhängigkeiten schrumpfen deutlich. Pakete wie core-js für Polyfills oder das Module-Federation-Runtime gehören nicht mehr zur Standardinstallation. Die Zahl der mitgelieferten Dependencies sinkt laut Projekt von 13 auf 4.
Logging, Templates und Breaking Changes
Darüber hinaus unterstützt Rsbuild jetzt benutzerdefinierte Logger pro Instanz. Damit lassen sich Log-Level und Ausgabeformate feiner steuern, ohne den globalen Logger zu verändern. Auch die Projekt-Templates wurden überarbeitet: Neue Projekte können optional den React Compiler nutzen, und ein auf TypeScript-Go basierender Linter steht experimentell bereit. Vorlagen für React 18 und Vue 2 in create-rsbuild hat das Team entfernt.
Mit Version 2.0 gehen mehrere Breaking Changes einher. Neben dem Wegfall von Node 18 und CommonJS entfernt das Projekt sämtliche Webpack-spezifischen Komponenten und ändert diverse Defaults. Für die Migration stellt das Team eine Anleitung bereit; viele Anpassungen lassen sich nach eigenen Angaben automatisieren.
Alle Informationen zur neuen Rsbuild-Version finden sich in den Release Notes auf der GitHub-Projektseite und in der Ankündigung der Entwickler.
(fo)
Künstliche Intelligenz
Anthropic nimmt testweise Claude Code aus dem Pro-Tarif
Bei Anthropic gibt es teilweise Änderungen für neue Kunden: Das KI-Unternehmen hat testweise auf einigen Webseiten Claude Code aus dem Pro-Tarif genommen. Außerdem berichtet ein Neukunde, dass er sich mit Persona identifizieren musste, einem US-Unternehmen, das Ausweisdaten und Gesicht von Personen kontrolliert.
Weiterlesen nach der Anzeige
Eine Reihe von Nutzern haben in Blogs oder bei Reddit mitgeteilt, dass auf der Preisübersicht von Claude zum Pro-Tarif die Code-Komponente fehlt. Diese ist gerade für Entwicklerinnen und Entwickler interessant. Ein Anthropic-Manager beschwichtigt bei X, dass es sich nur um einen Test gehandelt habe, der zwei Prozent aller Neuanmeldungen betroffen habe. Ob diese zwei Prozent dennoch Zugriff auf Claude Code erhalten oder wie es insgesamt mit den Tarifen weitergeht, sagt er nicht. Eine Antwort auf eine Anfrage von heise developer steht noch aus.

Ein Anthropic-Manager beschwichtigt, dass nur zwei Prozent der Neukunden betroffen seien.
Viele LLM-Coding-Firmen haben den Umfang ihres Angebots in letzter Zeit begrenzt, da gerade Agenten wie OpenClaw die Kapazitäten offensichtlich an den Rand bringen: Anthropic selbst hat die Nutzung von externen Tools wie OpenClaw eingeschränkt, ähnlich wie Google für Gemini CLI. Microsoft stoppte die Neuanmeldung für GitHub Copilot Pro komplett und nahm alle rechenaufwendigen Opus-Modelle aus den Tarifen für Endanwender. Opus liefert allgemein die besten Ergebnisse zum Coden und Entwickler sind nun gezwungen, in Business-Tarife zu wechseln, was für Einzelentwickler schwierig ist.
Künftig Identifizierung mit US-Dienstleister?
Ein einzelner Bericht eines X-Accounts legt nahe, dass Anthropic bei ihm eine Identifizierung per US-Dienstleister Persona verlangt hat. Persona fordert ein Ausweisdokument und ein Live-Foto zur Identifizierung. Der Dienst ist durchaus umstritten; Anbieter wie Discord haben sich wieder von ihm getrennt.
In den aktuellen, heute gesichteten Datenschutzrichtlinien von Anthropic findet sich kein Hinweis auf Persona. Zu diesem Thema läuft ebenfalls eine Anfrage von heise developer bei Anthropic.
Weiterlesen nach der Anzeige
Auch Sicherheitsforscher, deren Experimente Anthropic standardmäßig zunächst blockiert, müssen sich seit Neuestem registrieren, um weiterarbeiten zu können. Persona ist hierbei zwar nicht vorgesehen, aber ein Business-Zugang mit Organisations-ID. Auch hier werden Einzelentwickler ausgeschlossen.
(who)
Künstliche Intelligenz
Neuer Einplatinenrechner für Edge- und IoT-Anwendungen
Mit dem OrangePi Zero 3W bringt Orange Pi einen neuen Einplatinenrechner heraus, der sich klar an Maker und Embedded-Entwickler richtet.
Weiterlesen nach der Anzeige
Im Zentrum arbeitet der Allwinner A733, ein Achtkern-SoC mit zwei Cortex-A76-Kernen (bis 2,0 GHz) und sechs energieeffizienten Cortex-A55-Kernen. Ergänzt wird das Ganze durch eine integrierte NPU mit bis zu 3 TOPS Rechenleistung für KI-Anwendungen sowie einen zusätzlichen RISC-V-Coprozessor für Echtzeitaufgaben. Für Maker bedeutet das: Neben klassischen Linux-Anwendungen lassen sich auch lokale KI-Inferenz oder zeitkritische Steuerungen direkt auf dem Board umsetzen.
Beim Arbeitsspeicher setzt das Board auf LPDDR5 mit bis zu 16 GByte. Beim Speicher zeigt sich das Board flexibel: Neben optionalem eMMC oder UFS-Modulen steht ein microSD-Kartenslot zur Verfügung.
Anschlüsse für komplexe Setups
Für die Konnektivität gibt es Wi-Fi 6 und Bluetooth 5.4, optional mit externer Antenne. Damit eignet sich das Board auch für IoT-Anwendungen oder als Edge-Gateway. Dazu kommen klassische Maker-Schnittstellen über eine 40-Pin-GPIO-Leiste mit Unterstützung für SPI, I2C, UART und PWM – also alles, was man für Sensoren, Bildschirme oder Aktoren benötigt.
Interessant ist auch die Videoausgabe: Neben Mini-HDMI (bis 4K@60fps) unterstützt das Board DisplayPort über USB-C sowie MIPI-DSI. Zwei unabhängige Displays lassen sich gleichzeitig ansteuern. Das eröffnet Einsatzmöglichkeiten für kompakte Multimonitor-Setups oder Systeme wie Infoterminals.
Auch für Kamera-Projekte stehen Anschlüsse bereit. Zwei MIPI-CSI-Schnittstellen ermöglichen den Anschluss von Kameramodulen, etwa für Bildverarbeitung oder Überwachungslösungen. In Kombination mit der integrierten NPU lassen sich hier auch KI-gestützte Anwendungen wie Objekterkennung direkt auf dem Gerät realisieren.
Als Betriebssysteme werden unter anderem Debian, Ubuntu, Android und OpenHarmony unterstützt. Zusätzlich nennt der Hersteller Kompatibilität mit gängigen KI-Frameworks wie TensorFlow oder PyTorch. Damit deckt das Board sowohl klassische Bastelprojekte als auch moderne KI-Anwendungen ab – zumindest auf dem Papier. Wie gut die Softwareunterstützung im Alltag wirklich ist, wird sich wie so oft erst zeigen, wenn die Community das Board durch die Mangel gedreht hat.
Weiterlesen nach der Anzeige
Mit PCIe 3.0 (über FPC) steht zudem eine schnelle Erweiterungsmöglichkeit bereit, etwa für SSDs oder spezialisierte Module. Das ist in dieser Größenklasse keine Selbstverständlichkeit und könnte für Bastler spannend sein, die mehr als nur Standard-I/O benötigen.
Für Maker ergeben sich daraus einige typische Einsatzszenarien: kompakte Smart-Home-Zentralen, lokale KI-Auswertung von Sensordaten, kleine Server oder auch portable Geräte mit Display. Durch die geringe Größe könnte das Board auch in mobilen Projekten oder selbstgebauten Handhelds landen. Das Board fällt mit seinen Abmessungen von 65 × 32 mm kompakt aus und dürfte damit auch in Projekten Platz finden, bei denen ein Raspberry Pi zu groß ist.
Erhältlich ist das Board auf Amazon für 73,99 US-Dollar. Dort bekommt man auch direkt einen aktiven Kühler mit dazu.
Wer wissen will, was man mit einem Raspberry Pi Zero alles anstellen kann, sollte sich unbedingt unseren Artikel zu Hackinggadgets für die Hosentasche anschauen.
(das)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
