Künstliche Intelligenz
Wettlauf um Quantencomputer: Europa droht den Anschluss zu verlieren
Sie klingen noch nach Science-Fiction, sind aber längst im Visier der globalen Wirtschaftsmächte und IT-Giganten: Quantencomputer, die komplexe Moleküle für neue Medikamente in Sekunden simulieren, Sensoren, die Erdbeben Wochen im Voraus spüren, und eine Kommunikation, die nach den Gesetzen der Physik unknackbar ist. Doch wer beherrscht diese Zukunft? Das Europäische Patentamt (EPA) und die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) haben vor wenigen Tagen in Paris eine umfassende Bestandsaufnahme vorgelegt, die Licht und Schatten für den europäischen Innovationsstandort offenbart.
Weiterlesen nach der Anzeige
Die gute Nachricht: Die Forschungsaktivität ist so hoch wie nie. Die schlechte: Der Weg vom Labor in den Markt wird für europäische Akteure immer steiniger. Während die Wissenschaft glänzt, droht die wirtschaftliche Verwertung mal wieder auf halber Strecke steckenzubleiben.
Seit 2015 haben sich laut den veröffentlichten Zahlen die Patentaktivitäten im Bereich der Quantentechnologien verfünffacht. Besonders das Quanten-Computing sticht hervor – hier gibt es heute 16-mal mehr patentierte Erfindungen als noch vor neun Jahren. Damit wächst dieser Sektor deutlich schneller als viele andere Technologiefelder.
Die OECD bestätigt den Trend: „Die Zahl der internationalen Patentfamilien im Bereich Quantentechnologie hat sich zwischen 2005 und 2024 versiebenfacht.“ Seit 2014 wachse der Bereich mit einer jährlichen Rate von rund 20 Prozent und übertreffe damit das allgemeine Wachstum über alle Technologien hinweg, das bei lediglich 2 Prozent liege.
Deutschland, Frankreich und Großbritannien bilden dabei die europäische Speerspitze. Doch EPA-Präsident António Campinos warnt vor verfrühter Euphorie. Die EU müsse ihre Investitionen massiv steigern, um nicht dauerhaft im Schatten der USA zu landen. Während US-Giganten wie IBM, Google und Microsoft das Feld bei den Patentanmeldungen dominierten, kämpfe die europäische Startup-Szene mit einer gefährlichen Stagnation bei der Finanzierung.
Die „akademische Falle“
Ein Merkmal des Sektors ist seine Nähe zur Grundlagenforschung. Ein ungewöhnlich hoher Anteil der Patentanmeldungen – fast ein Drittel – zitiert aus wissenschaftlichen Publikationen. Das zeigt, wie tief die Technologie noch in der akademischen Welt verwurzelt ist. Laut OECD haben über 50 Prozent der Gründer im Quantenbereich einen Doktortitel, verglichen mit nur etwa 10 Prozent in anderen Branchen.
Genau hier liegt laut OECD das Problem: Die Kommerzialisierung brauche privates Wagniskapital. Das fließe in den USA deutlich stärker als in Europa. Nach einem Höchststand im Jahr 2021 ist der Geldfluss hier zuletzt ins Stocken geraten. Die OECD spricht von einer Phase der Konsolidierung.
Weiterlesen nach der Anzeige
Neue Plattformen gegen die Unsichtbarkeit
Um gegenzusteuern, setzt das EPA auf Transparenz und Vernetzung. Eine neue Technologieplattform soll Investoren und Forschern helfen, sich im Dschungel der über 31.000 Quanten-Erfindungen zurechtzufinden. Zudem hat die Behörde ihren Deep Tech Finder aktualisiert: Ein Filter ermöglicht nun gezielt, europäische Start-ups mit Quantenpatenten aufzuspüren. Damit soll die Sichtbarkeit europäischer Exzellenz erhöht und die Brücke zum Kapitalmarkt geschlagen werden.
Die Konkurrenz schläft nicht. Über 80 Prozent der Akteure im Ökosystem sind laut der Untersuchung etablierte Unternehmen oder Forschungseinrichtungen, die ihre Position bereits festigen. Große IT-Konzerne dominieren das Feld mit ihrer schieren Masse an Patentportfolios. Ohne einen massiven Schub bei privaten Investitionen drohe der Quanten-Boom für Europa zu einer verpassten Chance zu werden, heißt es, während anderswo bereits die Rechenzentren der nächsten Generation entstünden.
Nadelöhr Lieferketten und Fachkräfte
Technik allein wird nicht reichen. Die Forscher machen deutlich, dass auch die globalen Lieferketten für kritische Komponenten zu einem Nadelöhr werden könnten. Wer keinen Zugriff auf Ressourcen wie Industriediamanten, spezielles Aluminiumoxid oder oxometallische Salze habe, könne die Hardware der Zukunft nicht bauen. Die OECD mahnt hier zu strategischer Vorsicht: „Den krisenfesten Zugang zu Schlüsselmaterialien und Technologien sicherzustellen, ist unerlässlich, um Innovationen zu unterstützen und strategische Risiken zu mindern.“
Zudem herrscht ein Ungleichgewicht auf dem Arbeitsmarkt. Während Stellen für Forschung und Informatik dominieren, machen kommerziell orientierte weniger als 10 Prozent der Stellenausschreibungen aus. Es fehlen also nicht nur Physiker, sondern auch die Köpfe, die aus der Physik ein Geschäft machen.
Europa steht dem Bericht zufolge an einem Scheideweg. Die akademische Basis ist vorhanden, die Patentzahlen steigen, doch die Dominanz der USA und der wachsende Druck aus China und Japan sind hoch. OECD-Generalsekretär Mathias Cormann betont, dass staatliche Strategien nun über die reine Forschungsförderung hinausgehen müssen.
Nötig sei es, die richtigen Bedingungen für die Skalierung dieser Technologien zu schaffen – von Investitionen und Fachkräften bis hin zu belastbaren Lieferketten. Mit einer „strategischen Quantenpolitik“ könnten Staaten dazu beitragen, den Beitrag von Durchbrüchen in diesem Sektor zu Wirtschaftswachstum und gesellschaftlichem Wohlstand zu optimieren. Die Bundesregierung beschloss 2023 ein Handlungskonzept Quantentechnologien, um Deutschland mit 3 Milliarden Euro an die Weltspitze zu bringen.
(wpl)
Künstliche Intelligenz
Teilchenbeschleuniger FAIR: Start des Probebetriebs nach Großbrand verschoben
Nach einem Großbrand des GSI Helmholtzzentrums für Schwerionenforschung kann der geplante Teilchenbeschleuniger FAIR nicht wie geplant ab Dezember erprobt werden. Das hat der hessische Wissenschaftsminister Timon Gremmels (SPD) am Donnerstag erklärt. Wie lange sich die Erprobungsphase verspätet, ist noch unklar. Der Großbrand ist demnach am Donnerstagmorgen in einem Gebäude des Linearbeschleunigers UNILAC ausgebrochen – in „einem vorgeschalteten Bereich des neuen Teilchenbeschleunigers FAIR“. Die Baustelle der Facility for Antiproton and Ion Research (FAIR) war demnach nicht direkt betroffen. Trotzdem wird UNILAC deshalb nicht den Teilchenstrahl für FAIR liefern können.
Weiterlesen nach der Anzeige
Großeinsatz der Feuerwehr
„Das ist eine dramatische Situation für uns“, zitiert der Hessische Rundfunk eine Sprecherin des Forschungsinstituts. Noch sei nicht absehbar, wie groß der Schaden tatsächlich ist. Bei der Bekämpfung des Großbrands waren am Donnerstag zwischenzeitlich 160 Einsatzkräfte an den Löscharbeiten beteiligt, berichtet die dpa. Am späten Abend war das Großfeuer demnach unter Kontrolle, über die Nacht sollte es noch eine Brandwache geben. Die Bevölkerung war vorher vor Brandgasen gewarnt und aufgefordert worden, Fenster und Türen zu schließen sowie Lüftungs- und Klimaanlagen abzustellen. Nach Angaben des Forschungszentrums entstand das Feuer durch einen Kurzschluss bei der Stromversorgung, die Rauchsäule war kilometerweit zu sehen. Menschen sind bei dem Brand nicht zu Schaden gekommen.
Mit der internationalen Beschleunigeranlage FAIR entsteht auf dem Gelände des Forschungsinstituts im Darmstädter Stadtteil Wixhausen eine der weltweit größten Anlagen physikalischer Grundlagenforschung. Dort soll Materie erzeugt und erforscht werden, wie sonst nur weit entfernt im Universum vorkommt. Davon erhoffen sich die Wissenschaftlerinnen und Wissenschaftler neue Einblicke in den Aufbau von Materie und die Entwicklung des Kosmos. Ursprünglich sollte der Bau der Anlage 1,3 Milliarden Euro kosten, laut dem Hessischen Rundfunk belaufen sich die Kosten inzwischen aber schon auf ungefähr 4,3 Milliarden Euro. Wie es mit FAIR nun weitergeht, muss sich jetzt zeigen.
(mho)
Künstliche Intelligenz
Wegen Vibe Coding: Open Source nun noch gegen Geld?
Die immer stärkere Nutzung von Vibe Coding gefährdet das Open-Source-Prinzip (OSS). Viele OSS-Entwicklerinnen und -Entwickler ziehen ihre Motivation nur aus dem direkten Umgang mit der Community und dem Feedback von ihr. Was Open Source groß gemacht hat, bleibt durch Vibe Coding nun aber zunehmend aus.
Weiterlesen nach der Anzeige
Zu diesem Ergebnis kommt die Studie „Vibe Coding Kills Open Source“ der Central European University (CEU), der Universität Bielefeld und des Kieler Instituts für Weltwirtschaft. „Unser wichtigstes Ergebnis ist, dass unter traditionellen OSS-Geschäftsmodellen, bei denen die Verantwortlichen in erster Linie das direkte Nutzerengagement monetarisieren (höhere Sichtbarkeit, die zu bezahlten Gelegenheiten oder anderen Formen der Anerkennung führt), eine stärkere Verbreitung von Vibe Coding das OSS-Angebot reduziert und das Wohlergehen senkt.“
Ihre Urheber verstehen dies als Aufruf zum Handeln und schlagen Lösungen vor. Eine besteht darin, auf ein kostenpflichtiges Open-Source-Modell umzuschwenken, das Erträge an die Maintainer und Kontributoren ausschüttet.
Viel Traffic, wenig Engagement
Die von vier Ökonomen durchgeführte Studie nennt das CSS-Framework Tailwind CSS als Beispiel für eines von vielen Projekten, dem der Vibe-Coding-Boom zu schaffen macht. Sie zitiert dessen Anbieter mit den Worten, dass Tailwind zwar populärer sei als jemals zuvor, was die Download-Zahlen angeht. Der Traffic bei den Tailwind-Docs sei gegenüber 2023 aber um 40 Prozent gesunken, der Umsatz sogar um fast 80 Prozent.

Stillschweigen: Durch den zunehmenden Einsatz von KI verzeichnen Tailwind (links) und Stack Overflow (rechts) immer weniger Interaktionen.
(Bild: arxiv.org/abs/2601.15494)
Um die Auswirkungen von Vibe Coding auf OSS zu untersuchen, erstellten die Forscher ein Modell des Open-Source-Ökosystems, das auf den zugrundeliegenden ökonomischen Prinzipien basiert. Das Ergebnis: Vibe Coding senkt zwar einerseits die Kosten für die Softwareentwicklung und steigert die Produktivität. Andererseits schwächt es aber die Nachfrage, im Sinne von User-Engagement, und damit den Gemeinwohlgedanken hinter Open Source. „Das zentrale Ergebnis des Modells ist ein Wettrennen zwischen diesen beiden Kanälen.“
Weiterlesen nach der Anzeige
Da es nicht mehr hauptsächlich der Mensch ist, sondern die KI, die mit den OSS-Repositories interagiert, entfällt die Mitmach-Komponente weitgehend. Bei OSS-Maintainern, die sich ausschließlich darüber motivieren, verschlechtere sich dadurch die Qualität und die Verfügbarkeit des OSS-Codes.
Lesen Sie auch
Angesichts des immer beliebteren Vibe-Codings ließe sich der Status quo des OSS-Ökosystems deshalb nur dann aufrechterhalten, wenn man das Wertschöpfungsmodell der OSS-Maintainer grundlegend überdenke. „Die Lösung besteht nicht darin, die Einführung von KI zu verlangsamen – die Vorteile sind zu groß und die Technologie zu nützlich. Die Lösung besteht darin, die Geschäftsmodelle und Institutionen neu zu gestalten, die den Wert an die OSS-Maintainer zurückfließen lassen“, etwa durch kostenpflichtige Angebote.
Da sich KI-gestütztes Programmieren immer mehr durchsetzt, dürfte man um solch eine Diskussion nicht herumkommen.
(who)
Künstliche Intelligenz
Deutsches Start-up Hyting zeigt erstes hybrides wasserstoffbasiertes Heizsystem
Das deutsche Start-up Hyting hat ein wasserstoffbasiertes Heizsystem mit einer Leistung von 10 kW entwickelt, das Wärme ohne den Ausstoß von CO₂, NOx und anderen Partikeln produziert und zusätzlich mit einer Wärmepumpe arbeitet. Das System wird gerade in einem 1000 m³ großen Raum in Offenbach erprobt.
Weiterlesen nach der Anzeige
Hyting nutzt in ihrem Heizsystem ein katalytisches Verfahren, bei dem Wasserstoff in Gegenwart von Sauerstoff ohne Flamme verbrannt wird; offenbar handelt es sich um eine Brennstoffzelle, die mit Sauerstoff aus der Umgebungsluft arbeitet. Dabei entstehen Wärme und Wasserdampf. Kohlenstoff, Stickstoffoxide und andere Partikelemissionen, wie sie etwa bei der Verbrennung fossiler Brennstoffe wie Gas und Öl vorkommen, entstehen bei dem Vorgang nicht. Als Wärmeübertragungsmedium kommt Luft zum Einsatz, die durch die Reaktion erhitzt wird.
Das System arbeitet jederzeit mit Wasserstoffkonzentrationen unterhalb der Entflammbarkeitsgrenze und soll daher inhärent sicher sein. Das proprietäre „flammenlose Wasserstoffverbrennungssystem“ ist zum Patent angemeldet.
Hybrides Heizsystem
Unterstützung erhält die wasserstoffbasierte Einheit von einer Wärmepumpe, die die Grundlast abdeckt. Die Wasserstoffverbrennung setzt erst bei niedrigen Umgebungstemperaturen oder hohem Heizbedarf ein. Das hybride Heizsystem kombiniert damit die Vorteile der Wärmepumpe mit den Vorteilen des katalytischen Wasserstoffverbrennungssystems miteinander. Da Spitzenbelastungen durch Wasserstoffverbrennung aufgefangen werden und dann keine elektrische Energie für die Wärmepumpe benötigt wird, soll sich eine hohe Effizienz bei geringen Kosten ergeben.
Prinzipiell sei es möglich, die wasserstoffbasierte Einheit auch mit anderen Wärmequellen als nur mit einer Wärmepumpe zu kombinieren. Hyting spricht etwa von industrieller Abwärme, die zum Heizen zur Abdeckung der Grundlast genutzt werden kann.
Vor der weltweit ersten Installation eines katalytischen Wasserstoff-Luftheizungssystems in einem 1000 m³ großen Raum einer Produktionsstätte für Präzisionspumpen in Offenbach durchlief die Anlage einen 2500-stündigen Test, um die Haltbarkeit des Systems zu validieren. Dabei wurden mit einem Generator ähnlich hoher Leistung etwa zehn Jahre Dauerbetrieb simuliert. Das wasserstoffbasierte Heizsystem soll diesen Test ohne Ausfall oder Verschleiß an sicherheitsrelevanten Bauteilen überstanden haben, heißt es von Hyting (PDF).
Die Anlage wurde dann nach der Gasgeräteverordnung GAR geprüft und zertifiziert. Der Feldtest muss nun zeigen, ob das wasserstoffbasierte Heizsystem in der praktischen Anwendung dauerhaft zur Dekarbonisierung des Heizungssektors beitragen kann.
Weiterlesen nach der Anzeige
(olb)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
