Künstliche Intelligenz
Google-Plattform Gemini Enterprise soll KI-Silos in Unternehmen aufbrechen
Nach Angaben von Google Cloud nutzen bereits knapp zwei Drittel aller Kunden die KI-Produkte des Unternehmens. Mit Gemini Enterprise will Google nun sämtliche KI-Komponenten in einer umfassenden Plattform bündeln, um Unternehmen ein Komplettpaket für die Transformation von Arbeitsplätzen anbieten zu können. Erklärtes Ziel sei es, den bisher noch auf einzelne Silos beschränkten Einsatz von KI auch auf komplexe Aufgaben zu übertragen, die sich unternehmensweit koordinieren lassen. Google macht dabei große Versprechen, hat in aktuellen Veröffentlichungen jedoch auch das gesamte Ökosystem für den Wandel beschrieben.
Vollständige Plattform statt Einzellösungen
Gemini Enterprise basiert laut Ankündigung von Google-Cloud-CEO Thomas Kurian auf sechs Kernkomponenten: Dazu zählen die Gemini-Modelle, die jeweils die Rolle des Gehirns in einem System übernehmen sollen, und eine No-Code-Workbench, die Anwenderinnen und Anwendern aus allen Fachbereichen im Unternehmen offensteht, um über Agenten Prozesse zu automatisieren und Informationen zu analysieren. Für einen schnellen Einstieg hält Google vorgefertigte Agenten für spezialisierte Aufgaben bereit und stellt die sichere Anbindung von Unternehmensdaten her – auch über Google Workspace hinaus. Zu solchen externen Quellen zählen Microsoft 365, Salesforce oder SAP. Ein zentrales Governance-Framework sowie der Zugriff auf ein offenes Ökosystem mit über 100.000 Partnern runden Gemini Enterprise ab.
Entwicklerwerkzeuge und offene Standards
Partner wie Atlassian, GitLab, MongoDB, Postman, Shopify und Stripe bieten bereits Erweiterungen an. Sie profitieren dabei von Gemini CLI, einem Coding- und Admin-Assistenten für die Kommandozeile, der es Entwicklerinnen und Entwicklern ermöglicht, direkt vom Terminal aus mit den Gemini-Modellen für die Aufgabenautomatisierung, Code-Generierung und Recherche in natürlicher Sprache zu interagieren.
Überdies arbeitet Google mit der Industrie an offenen Standards für eine neue Art der „Agent Economy“. Unter anderem sollen die Protokolle Agent2Agent (A2A) und Model Context Protocol (MCP) den Standard dafür setzen, wie Agenten kommunizieren. In Zusammenarbeit mit Zahlungsdienstleistern und Technologiepartnern wie American Express, Coinbase, Intuit, Mastercard, PayPal, ServiceNow und Salesforce hat Google zudem das Agent Payments Protocol (AP2) für autonome Transaktionen entwickelt.
Konkrete Anwendungsfälle zeigen Potenzial
Wie Unternehmen von den gebündelten Diensten in Gemini Enterprise profitieren können, zeigen laut Ankündigung erste Beispiele aus der Praxis, etwa im Bereich Kundenservice. Die Commerzbank nutzt beispielsweise Googles Customer Engagement Suite für ihren Chatbot Bene, der über zwei Millionen Chats bearbeitet und dabei rund 70 Prozent aller Anfragen erfolgreich gelöst habe.
Den Data-Science-Agent zum Automatisieren der Datenverarbeitung und -aufnahme nutzt Vodafone, um Daten-Workflows zu beschleunigen. Das Telekommunikationsunternehmen profitiert dabei von den Fähigkeiten des Agenten für eine zügige, detaillierte Datenerkundung. Er findet Muster schneller und optimiert daraufhin die komplexe Modellentwicklung durch die Generierung mehrstufiger Pläne für Training und Inferenz.
Lesen Sie auch
Umfassendes Partner-Ökosystem und Bildungsinitiativen
Bei der Suche nach geeigneten Agenten für ihre individuellen Bedürfnisse im wachsenden Partner-Ökosystem will Google seine Kunden mit einem neuen AI-Agent-Finder unterstützen. Während Anwenderinnen und Anwender dabei von auf Sicherheit und Interoperabilität geprüften Agenten profitieren sollen, will Google den Anbietern der KI-Helfer mit einfacheren Möglichkeiten zur Vermarktung und Umsatzgenerierung unter die Arme greifen.
Zur Kompetenzentwicklung führt Google zudem die Plattform Google Skills ein, auf der Schulungen kostenlos verfügbar sind. Das Gemini Enterprise Agent Ready-(GEAR)-Programm soll eine Million Entwicklerinnen und Entwickler beim Aufbau und Einsatz von Agenten unterstützen. Für besonders komplexe Herausforderungen kündigt Google das Delta-Team an – eine Expertengruppe von Google AI-Engineers, die direkt mit Kundenteams zusammenarbeiten soll.
Weitere Details und Hintergrundinformationen zu Gemini Enterprise finden sich in den Blogbeiträgen von Google- und Alphabet-CEO Sundar Pichai sowie Google-Cloud-CEO Thomas Kurian.
(map)
Künstliche Intelligenz
Radioaktives Radon: Warum es ein unterschätztes Risiko ist
Auf der Maker Faire 2024 sprach mich Make-Chefredakteur Daniel Bachfeld über einen Ergänzungsartikel zum Taupunktlüfter an. Dieser sollte beschreiben, wie man dem Edelgas Radon auf die Spur kommt und wie ein Taupunktlüfter es aus dem Haus entfernen kann. Aus dieser einfachen Frage ist eines meiner umfangreichsten Projekte entstanden, für das ich auch Informationen bei Fachfirmen, Universitäten und dem Bundesamt für Strahlenschutz einholen musste. Und, ohne zu übertreiben: Es geht bei diesem Thema um Leben und Tod!
Meine Erkenntnisse sind in einem weiteren Artikel aufsplittet.
- Was ist Radon?
- Welche Gefahr geht davon aus?
- Wie können wir es mit Maker-Mitteln detektieren?
Checkliste
Zeitaufwand:
4 Stunden (Ballonexperiment)
Kosten:
etwa 60 Euro (Geigerzähler für Ballonexperiment)
Material
Werkzeug
- Geigerzähler etwa Bosean FS-5000 (50 Euro)
Radon
Bei Radon handelt es sich um ein radioaktives Edelgas, das in der Erdkruste natürlicherweise vorkommt. Es entsteht durch den Zerfall von Uran und Thorium, die in sehr vielen Gesteinen und Böden vorkommen. Radon selbst ist farb-, geruchs- und geschmackslos, was bedeutet, dass es weder mit bloßem Auge noch mit anderen Sinnen wahrgenommen werden kann. Zudem ist es schwerer als Luft, was später noch eine wichtige Rolle spielen wird.
Das war die Leseprobe unseres heise-Plus-Artikels „Radioaktives Radon: Warum es ein unterschätztes Risiko ist“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
TDWI München 2026: Vorträge für die Konferenz zu Data, Analytics und KI gesucht
Vom 23. bis 25. Juni 2026 findet die TDWI München statt. Die Konferenz hat sich als Wissensdrehscheibe und Netzwerkplattform für die Daten-Community etabliert.
Weiterlesen nach der Anzeige
Bis Ende Januar 2026 sucht der Veranstalter heise conferences nach Vorträgen für die TDWI München zu Themen von Datenarchitektur und Strategie über Data Science und KI bis zur Datenkultur.
Ein Programmbeirat aus Fachexpertinnen und -experten kuratiert das Programm und sucht aus den Einreichungen etwa 120 Vorträge für die TDWI München aus.
Programm mit 12 Tracks
Der Call for Contributions ist bis zum 26. Januar 2026 geöffnet. Die Konferenz bietet zwölf thematische Tracks. Als neue Schwerpunkte kommt 2026 Industrial Data & AI hinzu. Daneben gibt es unter anderem folgende Tracks:
- Data Architecture
- Data Management
- Data Culture
- Data Science & AI
- Data Strategy & Data Governance
- Self-Service BI & Analytics
- Branchentrack Finanzindustrie
Projekterfahrungen und -berichte sind ebenso gewünscht wie Trends und Ausblicke zu den Themen der TDWI München. Wer mit einem Vortrag auf der Konferenz dabei sein möchte, aber noch keine Speaker-Erfahrung hat, hat die Chance, auf einen Mentor aus der Community zurückzugreifen.
Anwenderstorys sind besonders gern gesehen. Die Programmgestalter freuen sich zudem über Vorträge zu innovativen Formaten. So gab es in den letzten Jahren beispielsweise eine Chess Clock Debate und ein Dashboard-Karaoke.
Weiterlesen nach der Anzeige
(rme)
Künstliche Intelligenz
Missing Link: Hubble Deep Field – ein Foto und seine Geschichte
Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.
Weiterlesen nach der Anzeige
Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.
Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.

Das Hubble Deep Field aus dem Jahr 1995
(Bild: NASA)
Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.
Idee der 1970er Jahre
Weiterlesen nach der Anzeige
Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.
Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.
1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
