Künstliche Intelligenz
KI bei Versicherungen: Wenn der Tarif aus den 70ern auf Google Gemini trifft
Versicherungen und Finanzdienstleister gehören zu den ersten echten Anwendern von KI-Systemen im unternehmerischen Alltag. Doch was heißt das praktisch, wie geht man mit der Verlagerung von Arbeitsschwerpunkten um und was ist mit der großen Macht amerikanischer Konzerne in dem Bereich? Johannes Rath vom deutschen Versicherer Signal Iduna, der als Vorstandsmitglied „Kunde, Service & Transformation“ neben der Betriebsorganisation auch für den Bereich Digitalisierung zuständig ist, spricht im Interview mit heise online über die praktische KI-Verwendung bei einem solchen Konzern – und die Bedenken der Mitarbeiter.
Weiterlesen nach der Anzeige
heise online: Lassen Sie uns mit dem Elefanten im Raum anfangen: Trump, Zölle, geopolitische Risiken. Ihr Unternehmen nutzt für seine internen KI-Dienste Google Gemini sowie Google Cloud. Der Internetriese ist bekanntlich eine US-Firma – macht Ihnen das Sorgen?
Johannes Rath: Nein. Wir haben von Anfang an – in der Partnerschaft und in der Art, wie wir Googles Dienste nutzen – sehr viel Wert darauf gelegt, dass alles kompromisslos auf dem hohen Regulierungsniveau unserer Branche stattfindet.
Zum Beispiel: Es gibt keinen Zugriff auf personenbezogene Kundendaten. Die KI-Lösungen basieren ausschließlich auf internen, pseudonymisierten Daten, die sicher innerhalb unserer technischen Infrastruktur verarbeitet werden. Wir sind strategischer Partner von Google Cloud – so wie etwa auch die der Deutsche Bank oder die Deutsche Telekom. Daher gibt es für mich auch keinen Elefanten im Raum.
Was macht eine Versicherung wie Signal Iduna konkret mit Google Cloud?
Google ist unser Transformationspartner im Sinne unserer Cloud-Strategie. Wir migrieren eine Reihe von Anwendungen in die Google Cloud. Inhaltlich sind wir inmitten zweier großer Themen – einmal horizontal und einmal vertikal.
Horizontal heißt: Im Oktober 2025 haben wir als eines der ersten Unternehmen in Europa für unsere gesamte Unternehmensgruppe Googles Gemini Enterprise eingeführt. Das heißt, jeder Mitarbeitende arbeitet nun zentral mit der KI-Plattform und wird auch in die Lage versetzt, eigenständig KI-Agenten zu entwickeln, die dann auch in der gesamten Organisation zum Einsatz kommen können.
Weiterlesen nach der Anzeige

Johannes Rath, Innovationschef bei Signal Iduna.
(Bild: Saskia Uppenkamp / Signal Iduna)
Vertikal heißt: Wir haben schon im Jahr 2023 in der Krankenversicherung angefangen, einen sehr spezifischen Agenten aufzubauen.
Zunächst intern?
Genau, für unsere Belegschaft. Hintergrund: Es gab in den letzten Jahren eine hohe Steigerung von Leistungsabrechnungen in der Krankenversicherung. Sowas führt natürlich auch zu einem entsprechend erhöhten Serviceaufkommen bei den Versicherungen. Was daran am meisten Geld und Nerven kostete, war das Suchen und Warten: Kundinnen und Kunden hingen dann zum Beispiel immer länger in der Warteschleife. Und landeten vielleicht noch bei jemandem, der das Anliegen nicht vollständig lösen konnte. Bei hunderten verschiedenen Versicherungstarifen und tausenden Vertragsdokumenten kann das passieren.
Darum haben wir begonnen, einen eigenen Agenten mit unseren Krankenversicherungsdaten zu entwickeln und trainieren – über alle 600 Tarife hinweg. Das war enorme Arbeit, weil es auch um die Input-Qualität der Daten ging. Wir haben beispielsweise noch Tarife aus den Siebzigerjahren, die zwar als gescannte PDF vorliegen, aber maschinell nicht lesbar sind – und diese Tarife möchten Menschen heute noch behalten. Die Datenqualität der Scans war teilweise so schlecht, dass wir entschieden haben, Studierende zu engagieren, die die ältesten PDFs abgeschrieben haben.
Was bringt ein solcher Wissensagent für die Krankenversicherung überhaupt messbar?
Nachdem der Agent in die Anwendung gebracht wurde, reduzierte sich die Weiterleitungsrate – von einem Kundendienstmitarbeiter zum nächsten – von 27 Prozent auf 3 Prozent. Gleichzeitig ist die Bearbeitungsgeschwindigkeit um 37 Prozent gestiegen.
Die Ergebnisse waren richtig spürbar: Unser Net Promoter Score, eine Messgröße für die Kundenzufriedenheit, haben wir in dieser Phase Zeit verdoppelt. Das war das erste Mal, dass wir bei einem vertikalen Thema so einen deutlichen Effekt gesehen haben.
Und sind die Ergebnisse des Agenten zuverlässig – oder sehen Sie auch Halluzinationen?
Wir haben mittlerweile eine sehr gute Antwortqualität erreicht. Es bleibt wichtig, dass unsere eigenen Mitarbeitenden den Agenten trainieren und wir die Antwortqualität kontinuierlich verbessern.
Wie hoch ist die tatsächlich?
Mittlerweile bei mehr als 85 Prozent über alle Anfragen (einfach und komplex) hinweg. Wir haben stets einen „Human in the Loop“ im Prozess – also ein Mitarbeiter überprüft die Antwort der KI.
Interessant ist: Ohne den KI-Agenten ist die Antwortqualität bei sehr spezifischen Fragen oft noch deutlich schlechter – da sucht jemand gern auch mal 15 Minuten.
Unser Fazit: Künstliche Intelligenz übernimmt zunehmend Tätigkeiten, aber ersetzt nicht den Menschen selbst. Entscheidend bleiben weiterhin Erfahrung, Verantwortung und Urteilsvermögen. Und gerade in unserem Bereich: Fingerspitzengefühl und Ansprechbarkeit.
Sieht der Kunde schon etwas von der KI?
Nein. Den Agenten nutzen aktuell unsere Mitarbeitenden, um schneller Fragen zu beantworten, die Kundinnen und Kunden stellen.
Es geht also dann um Tarifdetails in ihren Verträgen? Also beispielsweise: „Wie viele Stunden Psychotherapie sind in meinem Tarif enthalten“?
Meist ist es komplizierter, aber ja. Normalerweise müssen Menschen dafür quer durch Dokumente suchen – das ist aufwendig und kostet Zeit, gerade bei komplexen Themen.
Kommen wir zum Thema Claims, also den Ansprüchen an einen Versicherer. Nutzen Sie KI schon für die Entscheidung im Schadensfall?
KI ist bereits heute integraler Bestandteil unserer Schadenregulierung. So setzen wir KI unterstützend in der Schadensaufnahme, -bearbeitung oder Betrugserkennung ein. Unser KI-Assistent liefert die datenbasierte Grundlage, der Mensch trifft die finale Entscheidung.
Für dieses Jahr haben wir uns das klare Ziel gesetzt, die KI-Integration weiter voranzutreiben auf dem Weg zu unserer langfristigen Vision: der ‚Zero-Touch Claim‘ mit einer vollautomatisierten Schadenabwicklung für das Service-Erlebnis in Echtzeit.
Stichwort Input – wo hakt es denn beispielsweise bei Rechnungen, die die Kunden einreichen?
Versicherung ist ein papierintensives Geschäft. Aber: Bei uns kommen mittlerweile mehr als 60 Prozent der Krankenversicherungsrechnungen digital rein. Die Input-Qualität entscheidet: Entweder läuft der Prozess anstandslos automatisiert durch oder es muss manuell nacherfasst werden. In Deutschland gibt es keinen Standard, wie eine Krankenversicherungsrechnung auszusehen hat. Wenn etwas manuell nacherfasst werden muss, dauert es länger: Dann ist ein Vorgang nicht an einem Tag abgeschlossen, sondern eher in einer Woche.
Liegt das auch schlicht an schlechten Scans?
Eher an der Unterschiedlichkeit der Dokumente. Deswegen haben wir für die bessere Input-Qualität KI nach vorn gesetzt. Entscheidend ist: Je besser die Datenqualität, desto besser laufen die KI-Agenten. In diesem Bereich steckt aus meiner Sicht noch sehr viel Potenzial.
Vertrieb ist für Versicherungen wichtig. Nutzen Sie KI auch dafür, passende Tarife zu finden?
Ja – der gesamte Vertrieb kann seit Beginn unsere KI-Lösungen nutzen. So können sich Vermittler mit diesen Tools besser auf Kundengespräche vorbereiten oder Tarifvergleiche anfertigen – wie zum Beispiel bei der Einführung unseres neuen Krankenversicherungs-Produktes. Wir reduzieren mit KI also Vorbereitungszeiten, damit sich unsere Vermittler um den Kunden kümmern können.
KI kann nicht nur Dokumente. Haben Sie Sprachgenerierungssysteme auf Kundenseite im Einsatz?
Wir machen gerade die ersten Proof-of-Concept-Fälle. Das halte ich für eines der spannendsten Produkte für die Versicherungs- und Finanzindustrie.
Proof of Concept ist ein wichtiges Stichwort. Bei KI wird viel experimentiert, was auch teuer ist. Die Frage ist dann, was letztlich an Anwendungsfällen im Alltag einer Firma bleibt.
Es wird viel über Use Cases geredet. Ich glaube, entscheidend ist aber tatsächlich der „Use“. Unser Ansatz ist: First Use, then Case. Das ist meiner Meinung nach die richtige Verwendung von KI in Unternehmen. Die KI-Plattform der Signal Iduna auf Basis von Gemini Enterprise haben wir „Co SI“ genannt. Unsere Mitarbeitenden können es auch nutzen, um E-Mails zusammenzufassen, Fragen zu beantworten – wie man ein GPT eben nutzt.
Das heißt – jemand muss jetzt erstmal im Unternehmen ständig schauen, was die Leute mit KI machen?
Genau. Wir beobachten, um zu verstehen, wie Mitarbeitenden diese Technologie nutzen. Das ist recht faszinierend, denn daraus entstehen die Cases, die wir später skaliert umsetzen. Hierfür haben wir über 110 „KI-Champions“ etabliert, die dezentral dabei helfen, KI zu nutzen und die richtigen Cases zu identifizieren. Man muss der Organisation also die Möglichkeit geben, KI-Fähigkeiten aufzubauen, ihren Wert zu erkennen und dann gezielt KI-Agenten zu bauen.
Dabei achten wir darauf, dass KI in der Breite genutzt wird – bevor aber ein KI-Agent entwickelt und skaliert wird, muss ein entsprechender Business Case vorliegen.
Sehen Sie in Ihrer Belegschaft auch Angst vor KI? Also dass Beschäftigte denken, dass man ihnen den Job wegnimmt?
In den kommenden zehn Jahren werden unser Unternehmen rund 30 Prozent der Mitarbeitenden altersbedingt verlassen. Wir sind demnach angehalten, zu handeln. Und das kommunizieren wir aktiv in unserer Belegschaft. Gleichzeitig haben wir eine Betriebsvereinbarung geschlossen, die bis Ende 2028 zusichert, dass wir keine betriebsbedingten Kündigungen in Verbindung mit der Implementierung von generativer KI aussprechen werden.
Um bei praktischen Anwendungen zu bleiben – welche KI-Agenten wollen Sie bauen?
Vertikal werden wir weitere „Spartenagenten“ bauen – in den Bereichen Krankenversicherung oder Autoversicherung beispielsweise – also dort, wo wir sehr spezifisch arbeiten. Und wir werden KI-Agenten bauen, die Friktion aus dem System nehmen: kleine Agenten, die die Arbeit insgesamt effizienter machen – zum Beispiel dort, wo Bürokratie Reibung erzeugt. Bei mühsamen und lästigen Aufgaben reduzieren wir mit aller Entschiedenheit. Also: Vertikales Wissen aufbauen und verbreiten – und horizontale Friktion abbauen.
Als letzte Frage – wo nutzen Sie persönlich KI, beruflich und privat?
Ich probiere immer wieder Produkte aus, um ein Gefühl dafür zu bekommen, wie KI funktioniert. Darunter natürlich Gemini, aber auch Perplexity und You.com. Aber ich nutze auch Eleven Labs, um besser zu verstehen, wie KI in Zukunft das Thema „Voice“ besetzen wird.
(bsc)
Künstliche Intelligenz
20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära
Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.
Weiterlesen nach der Anzeige
Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.
Die Zahlen beeindrucken – und verschleiern
AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.
Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.
Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.
Der API-Standard, den nur AWS kontrolliert
Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.
Weiterlesen nach der Anzeige
Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.
Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.
Egress: Die unsichtbare Mauer
Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.
Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.
Die Plattform-Wette: S3 als Datenmonopol
Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.
Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?
Fazit: Technisch brillant, strategisch kalkuliert
20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.
Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.
Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.
(fo)
Künstliche Intelligenz
Kommentar: Beim MacBook Neo muss man erstaunlich wenig Kompromisse machen
Ein portabler Mac für 700 Euro – und das in Zeiten der Inflation: Das hatten wohl die wenigsten Beobachter des IT-Marktes auf dem Zettel. Während es in der PC-Welt zu massiven Aufschlägen für RAM und SSDs kommt, gar die ganze Kategorie des Einsteiger-Notebooks vor dem Aus zu stehen scheint, kommt Apple einfach mal so mit einem MacBook Neo um die Ecke, bei dem Käufer erstaunlich wenige Kompromisse machen müssen. Im Gegenteil: Man hätte kaum erwartet, dass eine derartige Maschine zu diesem Preis denkbar ist – gerade bei Apple, wo man stets wie ein Luchs auf eine hohe Marge achtet.
Weiterlesen nach der Anzeige
Der Umkehrschluss ist wohl richtig: Nur Apple kann ein Gerät wie das MacBook Neo in dieser Qualität und mit diesen Features massenhaft bauen, die anderen können es einfach nicht, weil die Skaleneffekte fehlen. Der Konzern aus Cupertino hat etwa (nur für ihn dank Massenproduktion!) günstige iPhone-Chips in der Supply Chain, die viele x86-PCs locker toppen – und große Teile der ARM-Konkurrenz auch. Die werden dann eben im Neo verbaut und alle sind glücklich. Es ist denkbar, dass der Konzern auch so noch erstaunlich gut an dem Gerät verdient – und sei es vor allem indirekt durch bezahlte Dienste oder die Tatsache, dass Nutzer eine neue Einstiegsdroge ins Ökosystem bekommen.
An den richtigen Stellen gespart
Meine ersten Erfahrungen mit dem Neo sind sehr einfach auf den Punkt zu bringen: Das ist ein richtiger Mac, mit einer Hardwarestabilität, Geschwindigkeit und Nutzungsbequemlichkeit, wie man sie vor Jahren noch zum doppelten Preis (wenn nicht mehr) bekommen hätte. Einschränkungen gibt es genau an den Stellen, die die Zielgruppe – Mac-Neulinge – vermutlich eh nicht juckt: Bei den Ports (nur ein schneller USB-3-Anschluss, sonst USB 2.0), beim Trackpad (mechanisch statt rein haptisch, aber das macht überhaupt nichts, keiner baut bessere physische Trackpads als Apple) und beim Bildschirm (Features wie Farbtemperaturanpassung und Helligkeitssensor weggelassen).
Was mich hingegen nach den ersten Nutzungstagen überhaupt nicht stört, ist der geringe RAM-Ausbau von nur 8 GByte oder die vergleichsweise lahme SSD. Letztere merkt man fast nicht, weil sie eben nur im Vergleich zu den besseren Geräten langsam ist, bei normaler Nutzung für Alltagsarbeiten und Medienkonsum (und sogar kleinere bis mittelgroße Videoschnittprojekte) stört es nicht. Selbst bei vielen offenen Apps fällt das notwendige Swapping kaum auf.
Kein Wegwerfgerät
Das MacBook Neo ist also eine komplett ausreichende Maschine für Otto Normalnutzer. Hinzu kommt die Apple-typische Bauqualität. Da ruckelt nichts, das Alugehäuse in wirklich hübschen Farben (ich empfehle „Zitrus“) wirkt bombensicher, es gibt keine Spaltmaße und das Öffnen und Schließen des Displays ist äußerst befriedigend. Man kann das Neo wie jeden Mac auch mal kurz aufs Sofa werfen, es stört nicht. Auch die Tastatur ist gut (also nicht schlechter als bei einem Air oder gar Pro) und das Trackpad lässt sich oben wie unten beliebig klicken.
Weiterlesen nach der Anzeige

Mac & i-Redakteur Ben Schwan schreibt seit 1994 über Technikthemen und richtet sein Augenmerk mittlerweile insbesondere auf Apple-Geräte. Er mag das Design von Mac, iPhone und iPad und glaubt, dass Apple nicht selten die benutzerfreundlicheren Produkte abliefert. Immer perfekt ist die Hard- und Software-Welt aus Cupertino für ihn aber nicht.
Am auffälligsten ist am MacBook Neo, wie unauffällig es ist: Man nutzt es eben wie einen Mac, minus der Tatsache, dass es keinen Arm und kein Bein gekostet hat. (Und wer wirklich etwas mehr will, kauft eben für noch unter 1000 Euro ein MacBook Air M4 (ab 968,99 €), das gerade im Abverkauf ist.)
Heute kam dann noch bei ersten Teardowns heraus, dass Apple es geschafft hat, beim Neo auch die Reparatur deutlich zu vereinfachen. Es gibt keinerlei Vernagelung durch Kleber und Pull-Tabs, nur Schrauben, plus die Möglichkeit, selbst kleine Komponenten wie Ports oder Lautsprecher in wenigen Minuten zu tauschen. Das Neo ist also günstig, aber trotzdem kein Wegwerfgerät. Das ist doch mal eine schöne Kombination.
(bsc)
Künstliche Intelligenz
#TGIQF: Das Nerdquiz um den Ig-Nobelpreis
Eine Schlagzeile der Woche: Der IG-Nobelpreis zieht aus den USA in die Schweiz. Der Preis, der sich selbst nicht ganz ernst nimmt und dessen Verleihung „erst zum Lachen, dann zum Andenken anregen soll“, findet aufgrund der politischen Situation in den Vereinigten Staaten am 3. September 2026 in Zürich und erstmals außerhalb der USA statt.
Weiterlesen nach der Anzeige
Doch was ist der Ig-Nobelpreis? Seit 1991 werden die Preise alljährlich auf einer bunten Veranstaltung verliehen, in ähnlichen Kategorien wie die echten Nobelpreise. Mal legen die Veranstalter einen satirischen Fokus auf skurrile Forschungen, mal schwingt bei den Preisverleihungen auch Sarkasmus mit. Dennoch wird der Preis in der Wissenschafts-Community geschätzt: Die Preisübergabe erfolgt oftmals durch echte Nobelpreisträger.

„Thank God It’s Quiz Friday!“ Jeden Freitag gibts ein neues Quiz aus den Themenbereichen IT, Technik, Entertainment oder Nerd-Wissen:
In den vergangenen 35 Jahren fanden die Verleihungen stets in Massachusetts statt: Sie wechselten zwischen Harvard University und dem MIT (The Massachusetts Institute of Technology). In diesem Jahr findet die Verleihung in Zusammenarbeit der Eidgenössischen Technischen Hochschulen und der Universität Zürich statt, wie die Veranstalter mitteilten. In Boston findet stattdessen wenige Wochen danach eine Ig-Nobelpreis-Veranstaltung statt.
Als kleine Instanz für Klugscheißerwissen wollen wir den etwas anderen Wissenschaftspreis mit einem Freitagsquiz ehren.
In der heiseshow stellte Moderatorin Anna Bicker der Stammbesatzung Dr. Volker Zota und Malte Kirchner drei Fragen vorab: Nicht jede Herleitung war angesichts der schwierigen Fragen nobelpreisverdächtig, aber sie fanden sich gut durch.
Sie können in Ruhe in 10 Fragen maximal 100 Punkte erreichen. Die Punktzahl kann gern im Forum mit anderen Mitspielern verglichen werden. Halten Sie sich dabei aber bitte mit Spoilern zurück, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern gelesen.
Weiterlesen nach der Anzeige
Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns bei Mastodon, auf Facebook oder Instagram. Und schauen Sie auch gern beim Redaktionsbot Botti vorbei.
Und falls Sie Ideen für eigene Quizze haben, schreiben Sie einfach eine Mail an den Quizmaster aka Herr der fiesen Fragen.
(mawi)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenEMEC vereint Gezeitenkraft, Batteriespeicher und H₂-Produktion in einer Anlage
