Connect with us

Künstliche Intelligenz

Googles ungeschützte API-Keys wegen Gemini-KI ein Sicherheits- und Kostenrisiko


Google arbeitet an der Behebung eines Problems mit eigenen API-Keys, nachdem Sicherheitsforscher auf möglichen Missbrauch hingewiesen haben. Denn die in vielen Webseiten per Klartext integrierten Schlüssel für den Zugriff auf Googles Cloud-Dienste wie Maps oder Firebase werden vielfach auch für Gemini verwendet. Mit diesen öffentlich sichtbaren API-Keys können Unbefugte die Google-KI nicht nur verwenden und somit Kosten verursachen, sondern auch auf zu Gemini hochgeladene Dokumente und Datensätze zugreifen – ein Datenschutz- und Sicherheitsproblem.

Weiterlesen nach der Anzeige

Die API-Keys werden für den Zugriff auf die seit Anfang 2017 allgemein verfügbaren Google Cloud Endpoints verwendet. Dieser Code wird in Webseiten eingebunden, um etwa auf Googles Kartendienst oder Datenbanken zuzugreifen oder um Nutzer anzumelden. Solche API-Keys sind im Quelltext einzusehen und laut Google-Angaben kein Geheimnis. Das war vor Jahren kein Problem, doch dann hat Google Gemini eingeführt und mit der künstlichen Intelligenz (KI) auch die „Generative Language API“ (Gemini-API).

Mit der Gemini-API können Projekte die Google-KI einsetzen, etwa Gemini in Python-Programmen. Doch Google erlaubt dafür auch die Verwendung bereits existierender API-Keys, die möglicherweise zuvor in Webseiten integriert wurden. Laut den Sicherheitsforschern von Truffle Security erfolgt die Aktivierung solcher API-Keys für Gemini ohne Warnung oder zusätzliche Bestätigung oder Benachrichtigung per E-Mail. Zudem wird selbst bei der Generierung eines neuen API-Keys der Google-Cloud eine unsichere Standardeinstellung vorgegeben, denn dieser Schlüssel kann für alle API verwendet werden, einschließlich Gemini.

Außenstehende können sich Zugriff auf die API-Keys durch einfaches Auslesen des Quelltexts von Webseiten verschaffen. Damit lassen sich private Daten einsehen, die für Gemini zuvor benutzt wurden, sowie die Google-KI in der Cloud selbst verwenden, was abhängig von den API-Zugriffen und dem gebuchten KI-Modell zusätzliche Kosten verursachen kann. Unbefugte könnten das für Gemini gebuchte Kontingent komplett ausschöpfen, sodass keine legitimen API-Zugriffe mehr möglich sind.

Ein Entwickler eines kleinen mexikanischen Start-ups berichtet bei Reddit bereits von einem solchen Fall. Üblicherweise beträgt die monatliche Rechnung für den API-Key der Google-Cloud 180 US-Dollar. Doch Mitte Februar wurde der Schlüssel von Unbefugten massiv für die Bildgenerierung und Texterstellung von Gemini 3 Pro verwendet, sodass die Rechnung auf 82.314,44 Dollar gesprungen ist. Damit ist das dreiköpfige Start-up vom Bankrott bedroht, sollte Google auf dieser Rechnung beharren.

Weiterlesen nach der Anzeige

Lesen Sie auch

Dies dürfte kein Einzelfall bleiben, denn die Sicherheitsforscher haben 2863 öffentlich sichtbare API-Keys entdeckt, die für unbefugte Gemini-Zugriffe missbraucht werden könnten. Das betrifft nicht nur Hobbyprojekte, sondern auch Finanzinstitute, Sicherheitsfirmen, Personalvermittlungsagenturen und sogar Google selbst. Das hat auch Google im Dezember 2025 davon überzeugt, sich dieser Sache anzunehmen. Anfang Februar erklärte Google, dass man noch an der Behebung der Ursache arbeitet. Der Konzern gibt in der Dokumentation der Gemini-API aber bereits einige „Tipps zu unerwarteten Kosten aufgrund von Sicherheitslücken“ und „Sicherheitsmaßnahmen bei durchgesickerten Schlüsseln“.

Nutzer der API-Keys sollten in der Konsole der Google Cloud Platform (GCP) kontrollieren, ob die Gemini-API aktiviert ist. Sollte dies der Fall sein, sollte der Einsatz der API-Keys genau überprüft werden. Öffentlich sichtbare API-Keys sollten umgehend ausgetauscht werden.


(fds)



Source link

Künstliche Intelligenz

Neuer Einplatinenrechner für Edge- und IoT-Anwendungen


Mit dem OrangePi Zero 3W bringt Orange Pi einen neuen Einplatinenrechner heraus, der sich klar an Maker und Embedded-Entwickler richtet.

Weiterlesen nach der Anzeige

Im Zentrum arbeitet der Allwinner A733, ein Achtkern-SoC mit zwei Cortex-A76-Kernen (bis 2,0 GHz) und sechs energieeffizienten Cortex-A55-Kernen. Ergänzt wird das Ganze durch eine integrierte NPU mit bis zu 3 TOPS Rechenleistung für KI-Anwendungen sowie einen zusätzlichen RISC-V-Coprozessor für Echtzeitaufgaben. Für Maker bedeutet das: Neben klassischen Linux-Anwendungen lassen sich auch lokale KI-Inferenz oder zeitkritische Steuerungen direkt auf dem Board umsetzen.

Beim Arbeitsspeicher setzt das Board auf LPDDR5 mit bis zu 16 GByte. Beim Speicher zeigt sich das Board flexibel: Neben optionalem eMMC oder UFS-Modulen steht ein microSD-Kartenslot zur Verfügung.

Für die Konnektivität gibt es Wi-Fi 6 und Bluetooth 5.4, optional mit externer Antenne. Damit eignet sich das Board auch für IoT-Anwendungen oder als Edge-Gateway. Dazu kommen klassische Maker-Schnittstellen über eine 40-Pin-GPIO-Leiste mit Unterstützung für SPI, I2C, UART und PWM – also alles, was man für Sensoren, Bildschirme oder Aktoren benötigt.

Interessant ist auch die Videoausgabe: Neben Mini-HDMI (bis 4K@60fps) unterstützt das Board DisplayPort über USB-C sowie MIPI-DSI. Zwei unabhängige Displays lassen sich gleichzeitig ansteuern. Das eröffnet Einsatzmöglichkeiten für kompakte Multimonitor-Setups oder Systeme wie Infoterminals.

Auch für Kamera-Projekte stehen Anschlüsse bereit. Zwei MIPI-CSI-Schnittstellen ermöglichen den Anschluss von Kameramodulen, etwa für Bildverarbeitung oder Überwachungslösungen. In Kombination mit der integrierten NPU lassen sich hier auch KI-gestützte Anwendungen wie Objekterkennung direkt auf dem Gerät realisieren.

Als Betriebssysteme werden unter anderem Debian, Ubuntu, Android und OpenHarmony unterstützt. Zusätzlich nennt der Hersteller Kompatibilität mit gängigen KI-Frameworks wie TensorFlow oder PyTorch. Damit deckt das Board sowohl klassische Bastelprojekte als auch moderne KI-Anwendungen ab – zumindest auf dem Papier. Wie gut die Softwareunterstützung im Alltag wirklich ist, wird sich wie so oft erst zeigen, wenn die Community das Board durch die Mangel gedreht hat.

Weiterlesen nach der Anzeige

Mit PCIe 3.0 (über FPC) steht zudem eine schnelle Erweiterungsmöglichkeit bereit, etwa für SSDs oder spezialisierte Module. Das ist in dieser Größenklasse keine Selbstverständlichkeit und könnte für Bastler spannend sein, die mehr als nur Standard-I/O benötigen.

Für Maker ergeben sich daraus einige typische Einsatzszenarien: kompakte Smart-Home-Zentralen, lokale KI-Auswertung von Sensordaten, kleine Server oder auch portable Geräte mit Display. Durch die geringe Größe könnte das Board auch in mobilen Projekten oder selbstgebauten Handhelds landen. Das Board fällt mit seinen Abmessungen von 65 × 32 mm kompakt aus und dürfte damit auch in Projekten Platz finden, bei denen ein Raspberry Pi zu groß ist.

Erhältlich ist das Board auf Amazon für 73,99 US-Dollar. Dort bekommt man auch direkt einen aktiven Kühler mit dazu.

Wer wissen will, was man mit einem Raspberry Pi Zero alles anstellen kann, sollte sich unbedingt unseren Artikel zu Hackinggadgets für die Hosentasche anschauen.


(das)



Source link

Weiterlesen

Künstliche Intelligenz

TypeScript 7.0 Beta: Neue Go-Basis beschleunigt die Programmiersprache


Microsoft hat die Beta-Version von TypeScript 7.0 veröffentlicht. Damit rückt das erste Release mit in Go geschriebenem Compiler und Language Service immer näher. Trotz Beta-Label soll TypeScript 7.0 bereits so weit sein, dass Entwicklerinnen und Entwickler es mitunter in ihrer täglichen Arbeit einsetzen können. Es soll deutliche Geschwindigkeitsvorteile gegenüber früheren TypeScript-Versionen bringen, die eine JavaScript-Basis nutzten.

Weiterlesen nach der Anzeige

Seit über einem Jahr arbeiten interne Microsoft-Teams gemeinsam mit Teams anderer Unternehmen – darunter Bloomberg, Canva, Figma, Google, Lattice, Linear, Miro, Notion, Slack, Vanta, Vercel und VoidZero – am Wechsel zur Go-Codebasis für TypeScript, mit antizipierten hohen Geschwindigkeitsvorteilen. Durch die Änderung soll TypeScript 7.0 oftmals rund zehnmal schneller laufen als TypeScript 6.0, wie Microsoft in der aktuellen Ankündigung erneut bestätigt. Erst vor knapp einem Monat ist TypeScript 6.0 erschienen, um eine Brücke zwischen der alten und der neuen Codebasis zu schlagen.


enterJS 2026

enterJS 2026

(Bild: jaboy / 123rf.com)

Tools und Trends in der JavaScript-Welt: Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm dreht sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Frühbuchertickets sind noch bis zum 28. April im Online-Ticketshop erhältlich.

TypeScript 7.0 lässt sich parallel zu TypeScript 6.0 installieren. Die neue Version ist darauf ausgelegt, mit dem Type-Checking- und Kommandozeilenverhalten von TypeScript 6.0 kompatibel zu sein. Jeglicher TypeScript-Code, der mit Version 6.0 sauber kompiliert wird (mit aktiviertem stableTypeOrdering-Flag und ohne das ignoreDeprecations-Flag), sollte laut Microsoft in Version 7.0 identisch kompiliert werden – nur schneller.

Dabei bringt TypeScript 7.0 die gleichen neuen Standardeinstellungen (Defaults), die seit Version 6.0 gelten. Wie der Hersteller zu bedenken gibt, ist auch Version 6.0 noch recht neu, und viele Projekte dürften sich noch darauf einstellen müssen. Beispielsweise ist nun strict standardmäßig auf true gesetzt und module verwendet im Standard esnext. Einige Deprecations, also als veraltet markierte Funktionen, geben jetzt schwerwiegende Fehler aus. Beispielsweise wird target: es5 nicht mehr unterstützt.

TypeScript 7.0 Beta lässt sich via npm installieren:

Weiterlesen nach der Anzeige


npm install -D @typescript/native-preview@beta


Wer die neue Version auf seiner Codebasis direkt ausprobieren möchte, kann auch zur Visual-Studio-Code-Erweiterung „TypeScript (Native Preview)“ greifen.

Weitere Informationen zum Einsatz von TypeScript 7.0 Beta bietet der Microsoft-Entwicklerblog.

Siehe auch:


(mai)



Source link

Weiterlesen

Künstliche Intelligenz

AMD Ryzen 9 9950X3D2 Dual Edition im Test: Schnellste AM5-CPU braucht viel Strom


Ein Prozessor zum Abschluss der Zen-5-Generation, wie um noch einmal zu zeigen, was geht – und was eben nicht. Der Ryzen 9 9950X3D2 Dual Edition kommt als krönender Abschluss der Ryzen-9000-Serie, bevor vielleicht zum Jahresende hin die Zen-6-Architektur übernehmen wird.

Im 9950X3D2 für die Fassung AM5 verbindet AMD riesigen Stapelcache mit allem, wofür Käufer bisher zwischen verschiedenen Ryzen 9000 wählen mussten: mehr als acht Kerne und hohe Taktfrequenzen. Der Ryzen 9 9950X3D2 ist also ein 9950X, ein 9950X3D und ein 9850X3D in einem – nur die hohe Effizienz des ursprünglichen Ryzen 7 9800X3D fehlt ihm.

Wie gut sich diese Kombination aus 16 Kernen, 192 MByte L3-Cache und hoher Taktfrequenz in den Benchmarks schlägt und ob sich der saftige Aufpreis dafür lohnt, verrät der Durchlauf im c’t-Testlabor.


Das war die Leseprobe unseres heise-Plus-Artikels „AMD Ryzen 9 9950X3D2 Dual Edition im Test: Schnellste AM5-CPU braucht viel Strom“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt