Künstliche Intelligenz
Digital Services Act: Das System der Trusted Flagger hakt noch
Wie Umgehen mit illegaler Werbung, schädlichen Produkten, Fake Shops und anderen verbotenen Inhalten? Der Streit um den Umgang mit illegalen Inhalten gehört zu den großen Dauerdebatten des Digitalzeitalters. Mit dem Siegeszug der Plattform-Ökonomie haben wenige Akteure eine ganz besondere Rolle eingenommen: die Temus, Amazons, YouTubes und TikToks dieser Welt vereinen große Teile von Inhalten, Dienstleistungen oder Produktangeboten auf sich, selbst wenn diese eigentlich von Dritten kommen. Damit sie für deren Inhalte nicht haftbar gemacht werden, gibt es seit den 1990ern das sogenannte Haftungsprivileg: Solange die Betreiber sich an die vorgegebenen Regeln halten und im Fall der Fälle auf Hinweise hin prüfen, ob ein Inhalt illegal sein könnte, müssen sie für diese juristisch nicht geradestehen. Mit dem Europäischen Digital Services Act (DSA) hatte dieses System 2024 ein großes gesetzliches Update erfahren.
Weiterlesen nach der Anzeige
Die Anbieter kaufen sich von der Haftung mit einem Versprechen frei: Wenn jemand etwas sieht, kümmern wir uns. „Notice and Action“ heißt das Prinzip, nachdem jeder auf mögliche Verstöße hinweisen kann. Doch beim DSA ist noch viel Luft nach oben: Die Meldemöglichkeiten dazu und die Reaktion der Anbieter sind bereits Gegenstand verschiedener Verfahren der EU-Kommission gegen die besonders großen Plattformen unter dem DSA. Und eine Untersuchung des Verbraucherzentrale Bundesverbands hatte kürzlich bereits aufgezeigt, dass die Meldewege für Verbraucher bei den größten Plattformen und Marktplätzen keineswegs immer den DSA-Regeln entsprechen.
Trusted Flagger: Eine Idee der Privatwirtschaft
Während der Gesetzgebung hatten auch manche Plattformbetreiber darauf gedrängt, dass bei einer Inhalteentfernung gewisse Mindeststandards eingehalten werden sollen. Denn die Anbieter fürchten wenig mehr, als mit ungerechtfertigten Anfragen überschwemmt zu werden. Die Google-Tochter YouTube hatte deshalb vor vielen Jahren das Konzept der sogenannten Trusted Flagger eingeführt: vertrauenswürdige Hinweisgeber – die in etwa auf Rechteverletzungen, Jugendschutzverstöße oder Ähnliches hinweisen konnten. Genau diese Idee wurde vom EU-Gesetzgeber im DSA aufgegriffen. Doch das Konstrukt wird von Kritikern seit dessen Inkrafttreten als Meinungspolizei kritisiert. Dabei haben Trusted Flagger, die in Deutschland vom Digital Services Coordinator bei der Bundesnetzagentur zertifiziert werden, vor allem eines: einen privilegierten Meldekanal zu den Anbietern. Denn in DSA-Artikel 22 steht: Anbieter müssen diese Meldungen unverzüglich und prioritär abarbeiten.
Und das hat gute Gründe: Wo fachkundige Profis sich melden, ist oft besondere Eile geboten, um größeren Schaden zu verhindern. In anderen EU-Staaten gibt es Trusted Flagger, die etwa Finanzbetrug aufspüren, Kindesmissbrauchsdarstellungen identifizieren oder nach Onlinepiraterie suchen. In Deutschland sind bislang nur vier Trusted Flagger benannt. Während zwei HateAid-Akteurinnen mit US-Sanktionen und der erste Trusted Flagger, die baden-württembergische Organisation „REspect!“ mit Hass und Häme überzogen und diffamiert wurden, sind die beiden anderen Organisationen für diesen Status weniger bekannt und umstritten. Der Bundesverband Onlinehandel ist etwa für den Schutz geistigen Eigentums, unechte Produktbewertungen oder unsichere Produkte als Hinweisgeber zertifiziert. Dem relativ nah ist auch der Verbraucherzentrale Bundesverband. Der gilt seit dem Juni 2025 als vertrauenswürdiger Hinweisgeber für ganz bestimmte Bereiche, die den Verbraucherschutz betreffen.
Für die Verbraucherschützer ein neues Instrument – denn bislang haben sie nur die Möglichkeit gehabt, Verbraucherschutz auf dem zähen Rechtsweg oder mit mahnenden Worten durchzusetzen. „Die Funktion als Trusted Flagger ergänzt die Möglichkeiten des vzbv um ein weiteres Instrument – wenn es funktioniert, erspart es auch den Anbietern einigen Aufwand“, sagt Lina Ehrig, die Leiterin des Teams Digitales und Medien, die auch im Beirat der deutschen Aufsichtsbehörde bei der Bundesnetzagentur sitzt. Aber danach sieht es noch nicht überall aus.
Wenn der Kuh-Schuh auf die Tränendrüse drückt
Weiterlesen nach der Anzeige
Denn die Verbraucherschützer sind auf eine Vielzahl an Problemen gestoßen, mit denen sie auch selbst so nicht gerechnet hatten. Ein Problem etwa: ein Anbieter, der als angeblicher Gnadenhof kurz vor der Pleite handgemachte Kuh-Schuhe für 25 Euro anbot – bei Temu für 3 Euro erhältlich. Facebook brauchte laut den Verbraucherschützern 7 Tage, um darauf zu reagieren. Wie viele Kuhschuhe die Tränendrüsen-Tierschutz-Betrüger bis dahin verkauft hatten, lässt sich kaum ermitteln. Und die wohlmeinenden Nutzer bleiben auf dem Schaden sitzen.
Einige der Anbieter machen es den Meldenden besonders schwer. Insbesondere Anzeigen für Fakeangebote seien kaum wirksam zu melden, beklagen die Verbraucherschützer. Automatisiert erstellt, sollen die Trusted Flagger sie händisch und mit viel Aufwand melden. Mit einem auf zehn Einträge beschränkten Onlineformular etwa. Aus Verbraucherschutzsicht sei das ein Unding, sagt Lina Ehrig: „Wir erwarten, dass Marktplätze das Auftauchen kerngleicher Inhalte verhindern, wenn sie bereits als unzulässig eingestuft wurden.“ Die Unternehmen müssten ja selbst ein Interesse haben, dass ihre Angebote nicht missbräuchlich genutzt werden, so die Verbraucherschützersicht.
Doch ihre Meldungen verhallen teilweise ungehört: Während Instagram, Amazon, Facebook und eBay im Regelfall auf die Trusted-Flagger-Meldung zumindest reagierten, führte bei AliExpress von drei Meldungen im Jahr 2025 keine einzige zu einer Löschung – obwohl eines der beanstandeten Produkte, ein Kinderspielzeug, in der EU einem absoluten Verkaufsverbot unterliegt. Bei den Verbraucherschützern hält man derartiges Verhalten für offensichtliche Verstöße gegen den DSA.
Ausgerechnet Google als Sorgenkind
Eines der Sorgenkinder der Verbraucherschützer mit der Lizenz zum Melden ist dabei ausgerechnet der Konzern, der das Trusted-Flagger-System einst mit erfunden hat. „Wir haben beim Digital Services Coordinator eine Beschwerde über Google eingelegt, weil das aus unserer Sicht kein DSA-konformes Verhalten ist“, sagt Dennis Romberg, der für die Marktüberwachung im Digitalen zuständig ist. Sein Team habe im Jahr 2026 bislang schon mehr Meldungen als im Vorjahr vorgenommen, allerdings auch erstmals Fälle an die Rechtsdurchsetzung zur weiteren Behandlung abgegeben.
Sprich: trotz des neuen Instruments muss wohl das alte Instrument der Abmahnung weiterhin für die Entfernung rechtswidriger Inhalte sorgen – mit entsprechendem Aufwand und Zeitverzug. Eine Anfrage von heise online an Google, wie sie das Funktionieren der Trusted Flagger-Bevorzugung einstufen, blieb bis zum Donnerstagabend unbeantwortet. Auch von Temu und TikTok ging bis zum Abend keine Stellungnahme ein, wie ihre Erfahrungen mit den vertrauenswürdigen Hinweisgebern seien.
EU-Leitlinien könnten das System praktikabler machen
Derzeit wird in Brüssel über neue Vorgaben für das Trusted Flagger-System beraten. „Die Leitlinien auf EU-Ebene wären ein guter Ort, um klare Vorgaben für die Anbieter zu erlassen, wie sie Meldungen entgegennehmen und bearbeiten müssen“, meint Verbraucherschützerin Lina Ehrig. Derzeit scheint jeder Anbieter seine eigenen Ideen zu haben, wie Trusted Flagger ihre Meldungen einreichen sollten. In anderen Rechtsbereichen, etwa bei der Produktsicherheitsverordnung, müssen die Anbieter gesetzlich definierte Onlineschnittstellen bereithalten – hier genauere Vorgaben zu machen als es der DSA-Gesetzestext tut, dürfte für die praktische Wirkung große Bedeutung haben.
(mho)
Künstliche Intelligenz
GPT-5.4 ist da: Native Computer-Steuerung und bessere Effizienz für Profis
Kaum zwei Tage nach dem Start von GPT-5.3 Instant – OpenAIs Reaktion auf das von vielen Nutzern als zu geschwätzig empfundene GPT-5.2, welches praktisch gleichzeitig mit Anthropic Opus 4.6 erschien – legt das Unternehmen erneut nach: GPT-5.4 ist da, und dieses Mal will OpenAI gleich mehrere Fronten auf einmal bespielen.
Weiterlesen nach der Anzeige
GPT-5.4 soll kein inkrementelles Update sein, sondern bislang getrennte Modell-Linien zusammenbringen – Reasoning, Coding und Wissensarbeit in einem einzigen Frontier-Modell. Laut OpenAI löst GPT-5.4 dabei auch GPT-5.3-Codex-Spark als empfohlenes Modell für Entwickler ab.
Computer-Steuerung und Web-Recherche: GPT-5.4 zieht vorbei
Das wohl auffälligste Novum: GPT-5.4 ist das erste allgemeine OpenAI-Modell mit nativen Computer-Use-Fähigkeiten. Agenten können damit eigenständig Desktop-Umgebungen navigieren, Maus und Tastatur steuern und komplexe Arbeitsabläufe über mehrere Anwendungen hinweg ausführen – ohne spezialisiertes Zusatzmodell.
Auf OSWorld-Verified, dem Standard-Benchmark für agentische Desktop-Steuerung per Screenshot, erreicht GPT-5.4 75 Prozent und übertrifft damit sowohl den menschlichen Referenzwert von 72,4 Prozent als auch Opus 4.6, das bei seiner Veröffentlichung 72,7 Prozent erzielte und damit damals die Messlatte gesetzt hatte. GPT-5.2 lag noch bei 47,3 Prozent.
Ähnlich das Bild bei BrowseComp, dem Benchmark für hartnäckige mehrstufige Web-Recherche: Opus 4.6 hatte hier mit 84,0 Prozent einen klaren Vorsprung gegenüber GPT-5.2 (65,8 Prozent) markiert. GPT-5.4 erreicht nun 82,7 Prozent – knapp dahinter, aber die Pro-Variante übertrifft Opus 4.6 mit 89,3 Prozent deutlich.
Auf dem GDPval-Benchmark, der Agenten-Leistungen in 44 Berufsfeldern misst, hatte Opus 4.6 bei seiner Veröffentlichung GPT-5.2 um rund 144 Elo-Punkte übertroffen – eine der auffälligsten Lücken zwischen den Modellen. GPT-5.4 schließt diese jetzt: Mit einer Gewinnrate von 83 Prozent gegenüber Branchenexperten übertrifft es GPT-5.2s 70,9 Prozent deutlich. Ein direkter Elo-Vergleich mit Opus 4.6 steht noch aus, da beide Unternehmen leicht unterschiedliche GDPval-Varianten berichten.
Weiterlesen nach der Anzeige
Besonders bei Tabellenkalkulationen zeigt sich der Fortschritt: Auf einem internen Benchmark für Investment-Banking-Modellierungsaufgaben erzielt GPT-5.4 87,3 Prozent gegenüber 68,4 Prozent bei GPT-5.2. OpenAI gibt zudem an, die Halluzinationsrate deutlich gesenkt zu haben: Einzelne Aussagen sollen 33 Prozent seltener falsch sein als bei GPT-5.2, vollständige Antworten 18 Prozent seltener Fehler enthalten.
Reasoning und Coding
Auf ARC-AGI-2, dem Benchmark für abstrakte Mustererkennung, setzt GPT-5.4 die deutlichsten Ausrufezeichen: GPT-5.4 in der Pro-Variante erreicht 83,3 Prozent, gefolgt von Googles Gemini 3.1 Pro (Preview) mit 77,1 Prozent, GPT-5.4 in der Standard-Variante mit 73,3 Prozent und Opus 4.6 mit 68,8 Prozent.
Auf Humanity’s Last Exam – einem multidisziplinären Reasoning-Test aus Wissenschaft, Recht und Philosophie – kommt GPT-5.4 laut OpenAI auf 52,1 Prozent, die Pro-Variante auf 58,7 Prozent. Gemini 3.1 Pro liegt je nach Variante bei 51,4 respektive 44,4 Prozent, Opus 4.6 nur bei etwa 35 Prozent.
Beim Coding-Benchmark Terminal-Bench 2.0 hatte Opus 4.6 zum Zeitpunkt seiner Veröffentlichung mit 65,4 Prozent alle anderen Frontier-Modelle angeführt. GPT-5.3-Codex hatte die Spitzenposition mit 77,3 Prozent übernommen und liegt damit knapp über GPT-5.4, das 75,1 Prozent erreicht.
1-Million-Token-Kontext: Experimentell, nicht Standard
Beide Modelle bieten jetzt ein 1-Millionen-Token-Kontextfenster – aber mit unterschiedlichen Ansätzen. OpenAI betont ausdrücklich, dass dies für Codex eine experimentelle Funktion ist, die nicht standardmäßig aktiviert ist. Auch bei Opus 4.6 gilt laut unabhängigen Analysen: Größerer Kontext bedeutet nicht automatisch bessere Ergebnisse – die Prefill-Latenz kann bei 1M Token über zwei Minuten betragen, bevor das erste Output-Token erscheint.
In der Hacker-News-Diskussion bestätigen Nutzer das aus eigener Erfahrung: Mehrere berichten, dass Codex bei vollem Kontext-Fenster den Faden verliere. Als vielversprechendsten Anwendungsfall nennen sie das Reverse Engineering von Code, bei dem große Mengen dekompilierten Codes gleichzeitig analysiert werden müssen. Wichtig für Entwickler: Prompts mit mehr als 272.000 Input-Token werden zum doppelten Input-Preis und 1,5-fachen Output-Preis für die gesamte Session abgerechnet.
Neu eingeführt mit GPT-5.4 wird „Tool Search“. Statt alle Tool-Definitionen von Anfang an in den Prompt zu laden, ruft GPT-5.4 sie bei Bedarf dynamisch ab. In Tests mit 36 MCP-Servern und 250 Aufgaben reduzierte das den Token-Verbrauch um 47 Prozent bei gleicher Genauigkeit. Das ist ein erheblicher Kostenvorteil für tool-intensive Anwendungen.
Eingreifen, während das Modell denkt
GPT-5.4 Thinking zeigt in ChatGPT künftig einen Vorab-Plan seiner Denkschritte an. Nutzer können während der Antwortgenerierung eingreifen und die Richtung korrigieren, ohne von vorne anfangen zu müssen. Das Modell soll zudem bei langen Aufgaben besser den Kontext früherer Gesprächsschritte im Blick behalten.
GPT-5.4 Thinking steht ab sofort für Plus-, Team- und Pro-Nutzer in ChatGPT bereit und löst GPT-5.2 Thinking ab. GPT-5.2 Thinking bleibt noch drei Monate als Legacy-Option verfügbar und wird am 5. Juni 2026 abgeschaltet. In der API ist das Modell unter gpt-5.4 verfügbar, die Pro-Variante als gpt-5.4-pro.
Beim Preis hat OpenAI gegenüber Anthropic einen Vorteil: Opus 4.6 kostet 5 US-Dollar pro Million Input-Token und 25 US-Dollar pro Million Output-Token, GPT-5.4 liegt mit 2,50 US-Dollar und 15 US-Dollar deutlich darunter. Hinzu kommt, dass Anthropic den Kontext-Aufpreis bereits ab 200.000 Token erhebt, OpenAI erst ab 272.000 Token. OpenAI argumentiert zudem, die höhere Token-Effizienz von GPT-5.4 reduziere den tatsächlichen Verbrauch zusätzlich.
Wettrennen ohne Pause
OpenAI und Anthropic überbieten sich derzeit in einem Tempo, das selbst Branchenbeobachter kaum noch mitverfolgen können. Während Anthropic-Chef Dario Amodei mit dem Pentagon über KI-Einsatz in autonomen Waffensystemen streitet – und OpenAI in die dadurch entstandene Vertragslücke springt –, liefern sich beide Unternehmen parallel ein Benchmark-Gefecht, bei dem die Zahlen schneller steigen als das Verständnis dafür, was sie bedeuten.
Lesen Sie auch
(vza)
Künstliche Intelligenz
Der Ozean als Standort für KI-Rechenzentren
Der KI-Boom befeuert weltweit die Nachfrage nach Rechenleistung. Zugleich sind die Serverfarmen aber gewaltige Strom- und Ressourcenfresser. Entwickler haben zunehmend Schwierigkeiten, Bauland, Energie und Wasser für den Bau und Betrieb großer Rechenzentren zu beschaffen.
Weiterlesen nach der Anzeige
Das kalifornische Start-up Aikido Technologies, ein Anbieter von Offshore-Infrastruktur, glaubt, dass der Umzug aufs Meer einige der Herausforderungen lösen könnte. Das Unternehmen hat in dieser Woche eine neuartige schwimmende Offshore-Windplattform vorgestellt, die Rechenleistung für KI-Anwendungen mit schwimmender Windenergieerzeugung und integriertem Batteriespeicher kombiniert.
Laut Aikido soll die Anlage 10 bis 12 Megawatt (MW) KI-Rechenleistung sowie eine 15 bis 18 MW starke Turbine und einen integrierten Batteriespeicher beherbergen. „Die Technologie, die für Rechenzentren mit einer IT-Last von 30 MW bis über 1 GW konzipiert ist, ermöglicht den Aufbau einer autarken KI-Infrastruktur im Gigawatt-Bereich direkt an der Quelle erneuerbarer Energien und trägt so dem rasanten Wachstum der Nachfrage nach hochdichter KI-Infrastruktur Rechnung“, so das Unternehmen in einer Mitteilung.
Prototyp vor der Küste Norwegens
Laut der vom Institute of Electrical and Electronics Engineers (IEEE) herausgegebenen Zeitschrift IEEE Spectrum plant Aikido, bis Ende des Jahres einen 100-Kilowatt-Prototyp vor der Küste Norwegens zu testen. Das Rechenzentrum wird demnach in den Unterwassertanks einer schwimmenden Offshore-Windkraftanlage untergebracht sein. Das erste kommerzielle Projekt ist für 2028 vor der Küste Großbritanniens geplant. Ein Standort wurde bereits identifiziert, und detaillierte technische und kommerzielle Gespräche liefen, teilte Aikido mit.
Das kalifornische Unternehmen hält das Meer für einen guten Standort für KI-Rechenzentren. Offshore seien Energie, Kühlung und Platz im Überfluss vorhanden, heißt es vonseiten Aikidos. Neben der Windkraft zur Energieerzeugung dient das Meerwasser zur Kühlung der Anlage. Weltweit könnten Gebiete, die für schwimmende Windkraftanlagen vorgesehen sind, sofort für Rechenzentren genutzt werden. „Bevor wir uns auf die Erde begeben, sollten wir uns auf die Offshore-Welt begeben“, so Sam Kanner, CEO von Aikido Technologies. „Die Pioniere der Öl- und Gasindustrie haben vor über 40 Jahren Tiefseeressourcen genutzt und enorme Vorteile erzielt. Aikido ist bestens aufgestellt, um bewährte Offshore-Komponenten mit gängigen Rechenzentrumsbautechniken zu integrieren und so KI-Fabriken im Gigawatt-Maßstab schneller, sauberer, kostengünstiger und effizienter als mit herkömmlichen Methoden zu errichten.“
Vor- und Nachteile
Weiterlesen nach der Anzeige
Aikidos Offshore-Ansatz bietet zwar einige auf der Hand liegende Vorteile, habe aber auch Nachteile, gibt das Tech-Portal Gizmodo zu bedenken. „Eine Herausforderung ist der aktuelle Zustand des schwimmenden Offshore-Windsektors, der mit erheblichen Entwicklungsverzögerungen, steigenden Kosten und höheren Zinsen aufgrund auslaufender staatlicher Subventionen zu kämpfen hat.“ Darüber hinaus gibt es auch technische Herausforderungen. Daniel King, wissenschaftlicher Mitarbeiter der Foundation for American Innovation, erwähnte gegenüber IEEE Spectrum den Salzgehalt des Meeres und die Verschmutzung durch Meeresabfälle, die die Infrastruktur beschädigen können. Auch könnte es zusätzliche regulatorische Hürden zum Schutz der Meereslebewesen vor Wärmeabstrahlung geben.
Aikido ist nicht das erste Unternehmen, das vorschlägt, Rechenzentren offshore im Meerwasser zu bauen. China nahm im vergangenen Jahr ein windkraftbetriebenes Unterwasser-Rechenzentrum in Betrieb. Es gilt als weltweit erste kommerziell betriebene Anlage. Zudem habe die WestfalenWind-Gruppe in Deutschland mit ihrem Projekt windCORES die operative Entwicklungsphase erreicht, schreibt Gizmodo. Dabei werden Onshore-Turbinen mit in die Türme integrierten Rechenzentren eingesetzt.
(akn)
Künstliche Intelligenz
Der Ozean als Standort für KI-Rechenzentren
Der KI-Boom befeuert weltweit die Nachfrage nach Rechenleistung. Zugleich sind die Serverfarmen aber gewaltige Strom- und Ressourcenfresser. Entwickler haben zunehmend Schwierigkeiten, Bauland, Energie und Wasser für den Bau und Betrieb großer Rechenzentren zu beschaffen.
Weiterlesen nach der Anzeige
Das kalifornische Start-up Aikido Technologies, ein Anbieter von Offshore-Infrastruktur, glaubt, dass der Umzug aufs Meer einige der Herausforderungen lösen könnte. Das Unternehmen hat in dieser Woche eine neuartige schwimmende Offshore-Windplattform vorgestellt, die Rechenleistung für KI-Anwendungen mit schwimmender Windenergieerzeugung und integriertem Batteriespeicher kombiniert.
Laut Aikido soll die Anlage 10 bis 12 Megawatt (MW) KI-Rechenleistung sowie eine 15 bis 18 MW starke Turbine und einen integrierten Batteriespeicher beherbergen. „Die Technologie, die für Rechenzentren mit einer IT-Last von 30 MW bis über 1 GW konzipiert ist, ermöglicht den Aufbau einer autarken KI-Infrastruktur im Gigawatt-Bereich direkt an der Quelle erneuerbarer Energien und trägt so dem rasanten Wachstum der Nachfrage nach hochdichter KI-Infrastruktur Rechnung“, so das Unternehmen in einer Mitteilung.
Prototyp vor der Küste Norwegens
Laut der vom Institute of Electrical and Electronics Engineers (IEEE) herausgegebenen Zeitschrift IEEE Spectrum plant Aikido, bis Ende des Jahres einen 100-Kilowatt-Prototyp vor der Küste Norwegens zu testen. Das Rechenzentrum wird demnach in den Unterwassertanks einer schwimmenden Offshore-Windkraftanlage untergebracht sein. Das erste kommerzielle Projekt ist für 2028 vor der Küste Großbritanniens geplant. Ein Standort wurde bereits identifiziert, und detaillierte technische und kommerzielle Gespräche liefen, teilte Aikido mit.
Das kalifornische Unternehmen hält das Meer für einen guten Standort für KI-Rechenzentren. Offshore seien Energie, Kühlung und Platz im Überfluss vorhanden, heißt es vonseiten Aikidos. Neben der Windkraft zur Energieerzeugung dient das Meerwasser zur Kühlung der Anlage. Weltweit könnten Gebiete, die für schwimmende Windkraftanlagen vorgesehen sind, sofort für Rechenzentren genutzt werden. „Bevor wir uns auf die Erde begeben, sollten wir uns auf die Offshore-Welt begeben“, so Sam Kanner, CEO von Aikido Technologies. „Die Pioniere der Öl- und Gasindustrie haben vor über 40 Jahren Tiefseeressourcen genutzt und enorme Vorteile erzielt. Aikido ist bestens aufgestellt, um bewährte Offshore-Komponenten mit gängigen Rechenzentrumsbautechniken zu integrieren und so KI-Fabriken im Gigawatt-Maßstab schneller, sauberer, kostengünstiger und effizienter als mit herkömmlichen Methoden zu errichten.“
Vor- und Nachteile
Weiterlesen nach der Anzeige
Aikidos Offshore-Ansatz bietet zwar einige auf der Hand liegende Vorteile, habe aber auch Nachteile, gibt das Tech-Portal Gizmodo zu bedenken. „Eine Herausforderung ist der aktuelle Zustand des schwimmenden Offshore-Windsektors, der mit erheblichen Entwicklungsverzögerungen, steigenden Kosten und höheren Zinsen aufgrund auslaufender staatlicher Subventionen zu kämpfen hat.“ Darüber hinaus gibt es auch technische Herausforderungen. Daniel King, wissenschaftlicher Mitarbeiter der Foundation for American Innovation, erwähnte gegenüber IEEE Spectrum den Salzgehalt des Meeres und die Verschmutzung durch Meeresabfälle, die die Infrastruktur beschädigen können. Auch könnte es zusätzliche regulatorische Hürden zum Schutz der Meereslebewesen vor Wärmeabstrahlung geben.
Aikido ist nicht das erste Unternehmen, das vorschlägt, Rechenzentren offshore im Meerwasser zu bauen. China nahm im vergangenen Jahr ein windkraftbetriebenes Unterwasser-Rechenzentrum in Betrieb. Es gilt als weltweit erste kommerziell betriebene Anlage. Zudem habe die WestfalenWind-Gruppe in Deutschland mit ihrem Projekt windCORES die operative Entwicklungsphase erreicht, schreibt Gizmodo. Dabei werden Onshore-Turbinen mit in die Türme integrierten Rechenzentren eingesetzt.
(akn)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 3 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
