Künstliche Intelligenz
Der Ozean als Standort für KI-Rechenzentren
Der KI-Boom befeuert weltweit die Nachfrage nach Rechenleistung. Zugleich sind die Serverfarmen aber gewaltige Strom- und Ressourcenfresser. Entwickler haben zunehmend Schwierigkeiten, Bauland, Energie und Wasser für den Bau und Betrieb großer Rechenzentren zu beschaffen.
Weiterlesen nach der Anzeige
Das kalifornische Start-up Aikido Technologies, ein Anbieter von Offshore-Infrastruktur, glaubt, dass der Umzug aufs Meer einige der Herausforderungen lösen könnte. Das Unternehmen hat in dieser Woche eine neuartige schwimmende Offshore-Windplattform vorgestellt, die Rechenleistung für KI-Anwendungen mit schwimmender Windenergieerzeugung und integriertem Batteriespeicher kombiniert.
Laut Aikido soll die Anlage 10 bis 12 Megawatt (MW) KI-Rechenleistung sowie eine 15 bis 18 MW starke Turbine und einen integrierten Batteriespeicher beherbergen. „Die Technologie, die für Rechenzentren mit einer IT-Last von 30 MW bis über 1 GW konzipiert ist, ermöglicht den Aufbau einer autarken KI-Infrastruktur im Gigawatt-Bereich direkt an der Quelle erneuerbarer Energien und trägt so dem rasanten Wachstum der Nachfrage nach hochdichter KI-Infrastruktur Rechnung“, so das Unternehmen in einer Mitteilung.
Prototyp vor der Küste Norwegens
Laut der vom Institute of Electrical and Electronics Engineers (IEEE) herausgegebenen Zeitschrift IEEE Spectrum plant Aikido, bis Ende des Jahres einen 100-Kilowatt-Prototyp vor der Küste Norwegens zu testen. Das Rechenzentrum wird demnach in den Unterwassertanks einer schwimmenden Offshore-Windkraftanlage untergebracht sein. Das erste kommerzielle Projekt ist für 2028 vor der Küste Großbritanniens geplant. Ein Standort wurde bereits identifiziert, und detaillierte technische und kommerzielle Gespräche liefen, teilte Aikido mit.
Das kalifornische Unternehmen hält das Meer für einen guten Standort für KI-Rechenzentren. Offshore seien Energie, Kühlung und Platz im Überfluss vorhanden, heißt es vonseiten Aikidos. Neben der Windkraft zur Energieerzeugung dient das Meerwasser zur Kühlung der Anlage. Weltweit könnten Gebiete, die für schwimmende Windkraftanlagen vorgesehen sind, sofort für Rechenzentren genutzt werden. „Bevor wir uns auf die Erde begeben, sollten wir uns auf die Offshore-Welt begeben“, so Sam Kanner, CEO von Aikido Technologies. „Die Pioniere der Öl- und Gasindustrie haben vor über 40 Jahren Tiefseeressourcen genutzt und enorme Vorteile erzielt. Aikido ist bestens aufgestellt, um bewährte Offshore-Komponenten mit gängigen Rechenzentrumsbautechniken zu integrieren und so KI-Fabriken im Gigawatt-Maßstab schneller, sauberer, kostengünstiger und effizienter als mit herkömmlichen Methoden zu errichten.“
Vor- und Nachteile
Weiterlesen nach der Anzeige
Aikidos Offshore-Ansatz bietet zwar einige auf der Hand liegende Vorteile, habe aber auch Nachteile, gibt das Tech-Portal Gizmodo zu bedenken. „Eine Herausforderung ist der aktuelle Zustand des schwimmenden Offshore-Windsektors, der mit erheblichen Entwicklungsverzögerungen, steigenden Kosten und höheren Zinsen aufgrund auslaufender staatlicher Subventionen zu kämpfen hat.“ Darüber hinaus gibt es auch technische Herausforderungen. Daniel King, wissenschaftlicher Mitarbeiter der Foundation for American Innovation, erwähnte gegenüber IEEE Spectrum den Salzgehalt des Meeres und die Verschmutzung durch Meeresabfälle, die die Infrastruktur beschädigen können. Auch könnte es zusätzliche regulatorische Hürden zum Schutz der Meereslebewesen vor Wärmeabstrahlung geben.
Aikido ist nicht das erste Unternehmen, das vorschlägt, Rechenzentren offshore im Meerwasser zu bauen. China nahm im vergangenen Jahr ein windkraftbetriebenes Unterwasser-Rechenzentrum in Betrieb. Es gilt als weltweit erste kommerziell betriebene Anlage. Zudem habe die WestfalenWind-Gruppe in Deutschland mit ihrem Projekt windCORES die operative Entwicklungsphase erreicht, schreibt Gizmodo. Dabei werden Onshore-Turbinen mit in die Türme integrierten Rechenzentren eingesetzt.
(akn)
Künstliche Intelligenz
Kapazitäten ausgereizt? Microsoft lehnt Neukunden für GitHub Copilot ab
Microsoft hat die Registrierung bei GitHub Copilot pausiert. Neukunden können sich somit nicht mehr für die Tarife Pro, Pro+ und Student anmelden. Gleichzeitig verschärfte das US-Unternehmen Tokenlimits und kündigte die Entfernung von Claude Opus 4.5 und 4.6 aus dem Pro+-Tarif an. Opus 4.7 bleibt im Pro+-Tarif hingegen verfügbar. Aus dem Pro-Tarif wurden alle Opus-Modelle sofort entfernt. Die kostenfreie Stufe und Enterprise-Abonnements sind von den Änderungen derzeit nicht betroffen.
Weiterlesen nach der Anzeige
Registrierungsstopp soll Servicequalität sichern
Hintergrund der Änderungen sei ein unerwartet hoher Bedarf an Rechenleistung. „Lang andauernde, parallelisierte Sitzungen beanspruchen regelmäßig weitaus mehr Ressourcen als geplant. Die ursprünglichen Strukturen waren dafür nicht ausgelegt“, schreibt Joe Binder, VP of Product, im GitHub-Blog. Inzwischen übernähmen KI-Agenten mehr Aufgaben und Kunden stießen an ihre Nutzungsgrenzen. Ohne Einschränkungen verschlechtere sich die Servicequalität für Bestandskunden.
Die Nutzungsgrenzen des Pro+-Abonnements sind mehr als fünfmal so hoch wie im Pro-Tarif. Dieses Limit ist von der Anzahl der Premiumanfragen unabhängig. Stattdessen handelt es sich um tokenbasierte Beschränkungen innerhalb eines festgelegten Zeitfensters. Somit können Kunden noch über ungenutzte Premiumanfragen verfügen, aber bereits die Nutzungsgrenzen erreicht haben.
Token und Modelle bestimmen Nutzungslimits
Microsoft unterscheidet bei den Nutzungslimits von GitHub Copilot zwischen zwei Zeitfenstern, die sich nach dem Tokenverbrauch und einem Multiplikator richten, der bei rechenintensiven Modellen entsprechend höher ist. Das erste Zeitfenster bezieht sich auf die jeweilige Session. Reizen Kunden ihr Limit aus, müssen sie warten, bis sich das Nutzungsfenster zurücksetzt, um Copilot wieder verwenden zu können.
Das zweite Zeitfenster ist das wöchentliche Limit, das eine Obergrenze für die nutzbaren Token darstellt. Damit will Microsoft parallelisierte Anfragen beschränken, die oft lange laufen und hohe Kosten verursachen. Künftig wolle das Unternehmen die Limits anpassen, um ein Gleichgewicht zwischen Zuverlässigkeit und Nachfrage zu erzielen, schreibt Binder. Ihren aktuellen Verbrauch können Kunden in Visual Studio Code oder dem Kommandozeilentool von GitHub Copilot einsehen.
Weiterlesen nach der Anzeige
Microsoft rät zu sparsamer Nutzung oder teurerem Tarif
Microsoft empfiehlt Kunden, die sich ihrem Nutzungslimit nähern, auf kleinere Modelle umzusteigen, weniger parallele Workflows zu verwenden oder den Plan-Mode zu nutzen. Alternativ verweist das Unternehmen seine Pro-Kunden auf den Pro+-Tarif.
GitHub Copilot kostet im Pro-Tarif monatlich 10 US-Dollar, Pro+-Nutzer zahlen 39 US-Dollar. Kunden der Pro- und Pro+-Tarife können ihr Abonnement jederzeit kündigen und sich die Gebühren für April über eine Supportanfrage bis zum 20. Mai 2026 zurückerstatten lassen. Zuletzt versuchte Microsoft, nicht nur mit Abonnement-Gebühren an GitHub Copilot zu verdienen, sondern blendete Werbung in Pull Requests ein. Nach Nutzerbeschwerden ruderte das Unternehmen zurück.
(sfe)
Künstliche Intelligenz
Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten
Die IT-Sicherheit befindet sich in einem permanenten Spannungsfeld zwischen der Notwendigkeit granularer Kontrolle und dem Drang nach operativer Geschwindigkeit. Während Containerorchestrierung per Kubernetes und Serverless-Architekturen die Deployment-Frequenz in den Minutenbereich drücken, hinken klassische Sicherheitskonzepte oft Monate hinterher. Der Markt antwortet mit der Fusion ehemals getrennter Disziplinen – Cloud Security Posture Management (CSPM) und Cloud Workload Protection Platform (CWPP) – zur Cloud-native Application Protection Platform (CNAPP).
Allerdings eine schlechte Nachricht für Firmen, die souverän bei EU-Anbietern hosten: Keine CNAPP-Lösung analysiert die mittelständischen Anbieter wie Scaleway, OHV, STACKIT et cetera. Für selbst oder bei mittelständischen Anbietern betriebene Kubernetes-Cluster sieht es besser aus, hier helfen die auf CWPP spezialisierten Werkzeuge.
- Zur Absicherung von Cloud-native-Infrastrukturen hat man die Wahl zwischen agentenlosen Scannern und agentenbasierten Wächtern und somit zwischen reiner Sichtbarkeit und aktiver Gefahrenabwehr zur Laufzeit.
- Compliance ist Pflicht: Alle Maßnahmen sollten auf den BSI-Grundschutz abgestimmt sein.
- Die finanzielle Stabilität und die R&D-Quote der Anbieter sind kritische Indikatoren für die Zukunftsfähigkeit; die Implosion der Bewertung von Lacework dient als Warnsignal gegen einen vorschnellen Vendor Lock-in.
Fragte die erste CSPM-Tool-Generation noch systematisch Cloud-APIs ab, um den Ist- gegen den Sollzustand zu prüfen, hat sich die Bedrohungslage fundamental verschoben. Angreifer nutzen nicht mehr nur simple Fehlkonfigurationen, sondern komplexe Identitätsketten und Schwachstellen innerhalb der Laufzeitumgebung aus. Die bloße API-Abfrage, die einen offenen Port meldet, ist wertlos geworden ohne den Kontext, welcher Prozess dort lauscht, welche Bibliotheken geladen sind und welche Rechte die damit verknüpfte Serviceidentität besitzt.
Das war die Leseprobe unseres heise-Plus-Artikels „Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Disney Channel kommt zu Disney+
Nutzer von Disney+ können künftig auch den Disney Channel im Streaming-Dienst aufrufen. Das teilte Disney unter anderem dem Medienmagazin DWDL mit. Ab Mai ist das lineare Programm des Disney Channels demnach auch über Disney+ aufrufbar. Voraussetzung ist ein aktives Abonnement, ein Aufpreis fällt nicht an.
Weiterlesen nach der Anzeige
Der Disney Channel ist ein vorwiegend an Kinder ausgerichteter, linearer Fernsehsender. In Deutschland ist der im FreeTV zu sehen und ist unter anderem bereits in waipu.tv und MagentaTV integriert. Auch in verschiedenen Satelliten- und Kabelpaketen ist der Disney Channel bereits integriert. Mit dem Einbau in Disney+ gibt es bald einen weiteren Empfangsweg.
„Die Integration des Disney Channel auf Disney+ ist der nächste logische Schritt“, zitiert DWDL die Disney-Managerin Eun-Ky Park. „Wir verbinden Orientierung und gemeinsames Fernseherlebnis mit der Flexibilität von Streaming und bieten unserem Publikum ohne zusätzliche Kosten noch mehr Auswahl.“ Das Programm des Disney Channels ist auf der offiziellen Webseite einsehbar.
ESPN kommt nach Deutschland
Neben dem Disney Channel bringt Disney auch ESPN zu seinem deutschen Streaming-Dienst: Das Angebot des Sportsenders soll in Deutschland stark ausgebaut werden. Unter dem ESPN-Banner wird schon jetzt Frauenfußball und US-amerikanischer College-Sport gebündelt.
Im Verlauf des kommenden Jahres soll über ESPN ein „abwechslungsreiches Portfolio“ aus US-Sportligen wie NBA (Basketball) und NHL (Eishockey) in Deutschland zu sehen sein, kündigte Disney an. Beide Sportligen sollen zur kommenden Saison 2026 bis 2027 international abrufbar sein – auch im Rahmen von Live-Übertragungen, die in Europa teilweise mitten in der Nacht stattfinden. Zusätzlich sollen Abonnenten von Disney+ Zugang zu ESPN-Dokus wie der „30 for 30“-Reihe bekommen und Newsprogramme aus der Sportwelt sehen können.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
