Connect with us

Künstliche Intelligenz

Warum Zahlen zum Wasserverbrauch von Rechenzentren oft irreführend sind


KI steht zunehmend in der Kritik – auch wegen möglicher Umweltfolgen. Insbesondere der Wasserverbrauch von Rechenzentren wirft viele Fragen auf. Wie Wired berichtet, tragen einerseits überzogene Angaben zur öffentlichen Aufregung bei. Andererseits ist es äußerst schwierig, den tatsächlichen Wasserbedarf von Rechenzentren zu beziffern, da dieser stark vom jeweiligen Standort abhängt.

Weiterlesen nach der Anzeige

Es besteht noch immer ein verworrenes Bild davon, wie Rechenzentren tatsächlich Wasser verbrauchen. So schrieb die Journalistin Karen Hao in ihrem Bestseller Empire of AI, ein geplantes Google-Rechenzentrum nahe Santiago de Chile könne „mehr als das Tausendfache des Wasserverbrauchs der gesamten Bevölkerung” benötigen. Inzwischen hat sie sich auf X entschuldigt: Aufgrund eines Missverständnisses bei der verwendeten Einheit sei ihr ein gravierender Fehler unterlaufen.

Parallel dazu kursieren zahlreiche Schätzungen zum Ressourcenverbrauch einzelner KI-Anfragen. Teilweise ist sogar von einer ganzen Flasche Wasser pro KI-generierter E-Mail die Rede. Die Berechnung sei aber deutlich komplexer, als eine einzelne Kennzahl auf eine durchschnittliche Anfrage anzuwenden. Vor Ort wird Wasser vor allem zur Kühlung eingesetzt. Durch einen höheren Wassereinsatz können Rechenzentren den Betrieb stromintensiver Kühlsysteme reduzieren. Oft wird dafür Trinkwasser verwendet, da es die Technik am wenigsten angreift. Einige große Konzerne wie Amazon, Meta und Apple setzen inzwischen aber verstärkt auf aufbereitetes Abwasser.

Hinzu kommen deutliche regionale Unterschiede, denn der Kühlbedarf fällt sehr unterschiedlich aus. „Wie viel Wasser Sie für die gleiche Menge an KI benötigen, hängt vom Klima, von der verwendeten Technologie und vom [Energie-]Mix ab“, sagt Fengqi You, Professor für Energiesystemtechnik an der Cornell University. In manchen Berechnungen wird auch der indirekte Wasserverbrauch einbezogen, der zum Beispiel bei der Stromerzeugung für Rechenzentren entsteht. Der Computerforscher Jonathan Koomey, der an einer Studie zu diesem Thema beteiligt war, hält diesen Ansatz für problematisch. Seiner Meinung nach sollte der Wasserverbrauch außerhalb des Standorts nicht in den Wasser-Fußabdruck von Rechenzentren einfließen, da das auch in anderen Branchen nicht üblich sei.

Aufgrund der hohen Komplexität ist es nahezu unmöglich, den Wasserverbrauch auf einzelne Nutzer oder KI-Anfragen herunterzubrechen. Aussagen über den ökologischen Fußabdruck verschiedener Sprachmodelle basieren fast ausschließlich auf den Nachhaltigkeitsangaben der großen Tech-Konzerne. Zwar sind einige Unternehmen transparenter geworden, aber viele Fragen bleiben offen. So erklärte etwa OpenAI-Chef Sam Altman, eine durchschnittliche ChatGPT-Abfrage verbrauche „etwa ein Fünfzehntel eines Teelöffels“ Wasser, ging dabei allerdings nicht auf zentrale Details ein.

Weiterlesen nach der Anzeige

Viele Experten warnen davor, die Sorgen rund um den Wasserverbrauch von Rechenzentren pauschal abzutun. „Kurzfristig ist das kein Problem und es handelt sich nicht um eine landesweite Krise“, sagt You. „Aber es hängt vom Standort ab. An Orten, an denen bereits Wasserknappheit herrscht, wird der Bau dieser KI-Rechenzentren ein großes Problem darstellen.“ Das gilt besonders für US-Bundesstaaten wie Arizona, in denen der Ausbau der KI-Infrastruktur rasant voranschreitet.

Auch Koomey mahnt zur Differenzierung. Zwar neigten viele Menschen dazu, die Umweltauswirkungen von Technologie zu überschätzen, dennoch gelte: „Man kann nicht einfach von vornherein sagen, dass es nie ein Problem sein wird.“ Der flächendeckende Einsatz von KI gilt als unvermeidlich. Daher ist es wichtig, auch die ökologischen Kompromisse zu hinterfragen und von den Unternehmen dahinter mehr Transparenz über ihre Umweltauswirkungen einzufordern.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Künstliche Intelligenz

Nach Nutzerfrust: Microsofts Maßnahmen gegen Microslop


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft hat nach anhaltender Kritik an Windows 11 Maßnahmen angekündigt, um das Vertrauen der Nutzer zurückzugewinnen. Wie The Verge berichtet, hat das Unternehmen eingeräumt, dass die Qualität des Betriebssystems nicht den eigenen Ansprüchen genüge. Als Reaktion darauf richtet der zunehmend als Microslop titulierte Konzern sogenannte Swarm-Teams ein – spezialisierte Entwicklergruppen, die sich den drängendsten Problemen widmen sollen.

Weiterlesen nach der Anzeige

Die Kritik an Windows 11 hat in den vergangenen Monaten stark zugenommen. Nutzer klagen über Instabilität, Performance-Probleme und zu viele Bugs, die teilweise erst Updates eingeschleppt haben. Besonders ärgerlich: Selbst grundlegende Anwendungen wie der Notepad-Editor zeigen mitunter Fehlfunktionen. Die angekündigten Swarm-Teams sollen genau diese Probleme priorisiert angehen und schneller beheben als bisher.

Konkret hat das Vertrauen in Microsoft und die Zukunft von Windows durch unterschiedliche Vorfälle gelitten. Updates, die eigentlich Fehler beheben sollten, brachten teils neue Probleme mit sich. Drucker funktionierten plötzlich nicht mehr, Netzwerkverbindungen brachen ab und in einigen Fällen führten Updates sogar zu Bluescreens. Microsoft räumt nun ein, dass der bisherige Qualitätssicherungsprozess nicht ausreicht. Zu den konkreten Problemen gehörten beispielsweise über Monate bestehende Remote-Desktop-Verbindungsabbrüche, ein duplizierter Task-Manager oder Fehler im Dark Mode.

Die mangelnde Stabilität schlägt sich auch in den Nutzerzahlen nieder. In Deutschland läuft auf fast jedem zweiten privaten Windows-PC noch Windows 10. Diese geringe Wechselbereitschaft ist besonders kritisch, weil der reguläre Support des Betriebssystems bereits im Oktober 2025 endete und Nutzer nur bis zum 14. Oktober 2026 auf den erweiterten Support setzen können.

Neben der Fehlerbereinigung will Microsoft auch die Performance von Windows 11 verbessern. Die Swarm-Teams sollen nicht nur reaktiv arbeiten, sondern proaktiv Engpässe identifizieren und beseitigen. Wie Microsoft den Erfolg dieser Maßnahmen messen will, bleibt jedoch unklar. Auch Details zu den beteiligten Entwicklern und konkreten Zeitplänen für kommende Updates nannte das Unternehmen nicht. Die Dringlichkeit zeigt sich an den jüngsten Problemen: Allein im Januar 2026 musste Microsoft zum Beispiel zwei außerplanmäßige Notfall-Updates veröffentlichen – erst wegen Shutdown-Problemen, eine Woche später wegen Abstürzen von OneDrive und Dropbox. Betroffen waren auch Outlook-Nutzer, deren PST-Dateien auf OneDrive gespeichert waren.

Obendrein hat Microsoft ähnliche Versprechen bereits in der Vergangenheit abgegeben. Ob die angekündigten Verbesserungen tatsächlich eintreten, zeigen die kommenden Monate. Probleme wie die zunehmend penetrante Werbung und die zumindest bei vielen Nutzern unerwünschten KI-Features adressieren die Versprechungen außerdem überhaupt nicht. Selbst die Startmenü-Suche leitet Nutzer zu Edge und Bing um, auch wenn ein anderer Browser als Standard gesetzt ist.

Weiterlesen nach der Anzeige

Die aktuellen Probleme werfen auch grundsätzliche Fragen zum Update-Mechanismus von Windows auf. Ob Microsoft plant, den Prozess der Qualitätssicherung strukturell zu verändern, ist unklar. Experten fordern seit Langem umfassendere Tests vor dem Verteilen von Updates an Millionen von Nutzern. Auch eine flexiblere Update-Politik, bei der Anwender kritische Patches besser auswählen können, steht zur Diskussion.

Für Unternehmenskunden stellen die Zuverlässigkeitsprobleme eine besondere Herausforderung dar. Viele Firmen zögern mit dem Umstieg auf Windows 11, weil sie befürchten, dass Updates den laufenden Betrieb stören könnten. Spezielle Maßnahmen für Enterprise-Kunden hat Microsoft bislang nicht angekündigt.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Artemis-Mission: Warum eine ehemalige Astronautin Kritik an den Raumanzügen übt


Die Artemis-II-Mission, die in wenigen Wochen stattfinden soll, ist „lediglich“ ein Fly-around-Manöver. Heißt: Die vier an Bord befindlichen Astronauten werden nicht auf dem Mond landen. Das soll sich bei erfolgreichem Abschluss der Mission aber langfristig ändern. Künftig sollen Astronauten wieder den Erdtrabanten beschreiten und dort wichtige Forschungsarbeiten vornehmen.

Weiterlesen nach der Anzeige

Damit sie auf dem Mond ausreichend vor den harschen Gegebenheiten des Weltalls geschützt sind, arbeitet die Nasa in Zusammenarbeit mit Axiom seit geraumer Zeit an neuen Raumanzügen für die Artemis-Crew. Diese werden unter anderem im Neural Buoyancy Laboratory in Houston, Texas, unter Wasser auf ihre Einsatzfähigkeiten getestet. Die ehemalige Nasa-Astronautin Kate Rubins sieht aber noch einige Probleme, die es bei den neuen Anzügen zu lösen gilt.

Rubins war von 2009 bis 2025 Nasa-Astronautin und hat in dieser Zeit rund 300 Tage im Weltall verbracht. Insgesamt hat sie in ihrer Laufbahn vier sogenannte EVAs (extravehicular activities) – also Weltraumspaziergänge – durchgeführt. Deren Missionszeit allein belief sich auf knapp 27 Stunden. Die erfahrene Weltraumreisende kritisiert bei den neuen Anzügen vorwiegend das Gewicht und die Flexibilität. Die Axiom-Raumanzüge wiegen in der aktuellen Version rund 140 Kilogramm, frühere Versionen kamen sogar auf über 180 Kilogramm.

In einem Panel (via Ars Technica) sagte Rubins dazu: „Ich mache Crossfit. Ich mache Triathlons. Ich mache Marathons. Ich komme aus einer Session im Pool des NBL mit dem Mondanzug unter Wasser und ich will einfach nur nach Hause und schlafen. Ich bin völlig ausgepowert. Man bekommt blaue Flecke. Es ist ein extremes physisches Ereignis, das auf der Raumstation so nicht vorkommt.“

Rubins betont, dass Astronauten auf der ISS die meiste Zeit ohne große körperliche Belastung in Schwerelosigkeit herumschweben. Nur gelegentlich stehen Weltraumspaziergänge an, die sie enorm fordern. Dazu steht die Arbeit auf dem Mond im starken Kontrast: „Sobald wir auf die Mondoberfläche kommen, wird es Schlafschichten geben. Sie werden kaum Schlaf bekommen. Sie werden in diesen Anzügen für acht bis neun Stunden am Stück sein. Es wird jeden Tag EVAs geben. Die EVAs, die ich auf meinen Flügen absolviert habe, waren wie ein Marathon und dann ein weiterer Marathon, wenn man damit fertig ist.“

Auch Mike Barratt, Nasa-Astronaut und Mediziner, sieht das Gewicht der Anzüge als Problem: „Wir haben definitiv körperliche Schäden durch die Anzüge gesehen. […] Diese reichen von Hautabschürfungen über Gelenkschmerzen bis zu – kein Scherz – orthopädischen Schäden. Man kann sich definitiv einen Bruch zuziehen. EVAs auf der Mondoberfläche mit schwer beladenen Anzügen und schwerer Last, die getragen werden muss oder Werkzeugen, mit denen man interagiert, sind ein Problem.“

Weiterlesen nach der Anzeige

Ein Grund, warum die Anzüge so schwer geworden sind, sind die zahlreichen Gelenke, die den Astronauten mehr Flexibilität ermöglichen sollen. Rubins sagt dazu: „Sie sind definitiv besser als die Anzüge der Apollo-Mission. Sie waren nur große Kissen mit Luft. Die Gelenke gab es nicht, also war es schwerer, sich zu bewegen. Sie hatten aber den Vorteil, dass sie viel leichter waren, als die aktuellen Anzüge.“

Trotz der Gelenke gäbe es laut Rubins aber weiterhin Probleme bei der Flexibilität. Wenn sich Astronauten nach vorn beugen, um etwas von der Mondoberfläche aufzuheben, wird das Material des Raumanzugs einfach zusammengedrückt. Astronauten müssen also zusätzliche Kraft aufwenden, um das Material zu verdichten. Auch bei einem Sturz und dem anschließenden Aufrichten ist nicht nur das Gewicht, sondern auch das Material im Weg: „Man muss im Grunde einen Sprung aus einem Liegestütz heraus machen … Ein riskantes Manöver, das wir im Training immer wieder durchgehen.“

Als eine mögliche Lösung für die Probleme sieht Rubins den Einsatz von Stäben, die als Stütze beim Laufen und beim Herunterbeugen dienen: „Dadurch muss ich mich nicht gleichzeitig darauf konzentrieren, den Anzug zusammenzudrücken und meine Balance zu halten.“ Abschließend sagt die erfahrene Astronautin, dass das jetzige Design der Anzüge eine gute Grundlage ist, auf der aufgebaut werden muss. Einige der Anpassungen dürften dabei spätestens nach Artemis III im nächsten Jahr anfallen, bei der die erste bemannte Mondlandung seit Apollo 17 stattfinden soll.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

SAP-Aktie stürzt ab – CEO Klein: „Egal, was der Markt meint“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

SAP ist aktuell nicht mehr das teuerste DAX-Unternehmen. Siemens zog am Donnerstag an dem Walldorfer Softwarekonzern bei der Marktkapitalisierung vorbei, nachdem SAPs Aktienkurs um bis zu sechzehn Prozent absackte. Auslöser für den derben Einbruch war die Veröffentlichung der Ergebnisse für das vierte Quartal und das Geschäftsjahr 2025 – dabei insbesondere die Entwicklung des Current Cloud Backlog (CCB).

Weiterlesen nach der Anzeige

Dabei wirkt die vorgelegte Bilanz auf den ersten Blick recht solide. Die Ergebnisse folgen weithin den Erwartungen. Die Umsatzerlöse erhöhten sich im Schlussquartal 2025 um drei Prozent auf 9,68 Milliarden Euro. Währungsbereinigt wurde ein Plus von neun Prozent ermittelt. Das Betriebsergebnis erhöhte sich um 27 Prozent auf 2,55 Milliarden Euro. Die operative Marge erhöhte sich um 4,9 Prozentpunkte auf 26,4 Prozent. Der Gewinn nach Steuern legte um 17 Prozent auf knapp 1,9 Milliarden Euro zu.

Im Gesamtjahr erhöhten sich die Umsatzerlöse um 8 Prozent (währungsbereinigt: 11 Prozent) auf 36,8 Milliarden Euro. Das Betriebsergebnis und der Nettogewinn konnten mit 9,83 Milliarden Euro beziehungsweise 7,49 Milliarden Euro mehr als verdoppelt werden, da die hohen Restrukturierungskosten aus dem Jahr 2024 als Belastungsfaktor wegfielen.

Der zweite Blick offenbart indes die Schwächen im geschäftlichen Verlauf. Die Wachstumsdynamik im Cloudgeschäft, einstmals treibende Kraft hinter dem Höhenflug der SAP-Papiere, verliert weiter an Fahrt. Mit 5,61 Milliarden Euro legten die Clouderlöse im Schlussquartal lediglich um neunzehn Prozent zu. Im vorjährigen Berichtszeitraum betrug das Plus noch 27 Prozent.

Im Gesamtjahr erhöhten sich die Erlöse zwar um 23 Prozent auf 21,02 Milliarden Euro und lagen bei währungsbereinigter Betrachtung mit plus 26 Prozent auf 21,66 Milliarden Euro am unteren Ende des angepassten Ausblicks vom 22. Oktober. Der Cloud-Auftragsbestand (Total Cloud Backlog) betrug Ende des Jahres 77,29 Milliarden Euro und ist damit um 22 Prozent beziehungsweise – währungsbereinigt – um 30 Prozent gestiegen. Vor Jahresfrist belief sich die Zuwachsrate noch auf 43 Prozent beziehungsweise währungsbereinigt 40 Prozent.

Die Finanzanalysten verschreckte insbesondere die Entwicklung des Current Cloud Backlog – also des Auftragsbestands von Cloud-Diensten auf Zwölfmonats-Sicht. Er wuchs im vierten Quartal um 16 Prozent auf 21,05 Milliarden Euro, währungsbereinigt betrug der Zuwachs 25 Prozent. Die Werte lagen zum einen deutlich unter den Wachstumswerten des Vorjahres. Zum anderen wurde das selbst gesteckte Wachstumsziel von mindestens 26 Prozent verfehlt. Für das neue Geschäftsjahr erwartet SAP zudem, dass sich das währungsbereinigte Wachstum des Current Cloud Backlog weiter leicht abschwächen wird.

Weiterlesen nach der Anzeige

Für die schwindende Wachstumsdynamik hatten SAP-Chef Christian Klein und der oberste Buchhalter Dominik Asam eine Reihe von Erklärungsversuchen parat. Beispielsweise hätten einige große Geschäftsabschlüsse, bei denen wegen der komplexen Umsetzung die Erlöse erst in zwei, drei Jahren stärker skalieren, das Wachstum gedämpft. Ähnliches gilt für Verträge mit staatlichen Institutionen, da diese aufgrund der gesetzlich vorgeschriebenen Klauseln zur ordentlichen Kündigung nicht einfließen konnten.

Überhaupt dauern nach Ausführungen der Manager die Vertragsverhandlungen in regulierten Branchen länger, da angesichts der geopolitischen Lage die Souveränitäts-Thematik auf den Tisch komme. Grundsätzlich sieht SAP den Wunsch nach mehr Souveränität in der Cloud als Wachstumschance für die eigenen Produkte, wenn nun peu à peu entsprechende Infrastrukturangebote in den verschiedenen Ländern zertifiziert werden.

Dem Aktienkurs förderliche Überzeugungskraft haben diese Erklärungen offenbar ebenso wenig entfaltet wie die Ankündigung eines neuen, zweijährigen Aktienrückkaufprogramms mit einem Volumen von bis zu 10 Milliarden Euro. Der jetzige Kursrutsch schreibt letztlich eine schon vor Monaten einsetzende Abwärtsbewegung der SAP-Papiere fort. Genährt wird diese von der allgemeinen Befürchtung seitens der Investoren und Finanzanalysten, dass KI-Anwendungen Funktionen im Umfeld betrieblicher Anwendungen künftig automatisch erstellen beziehungsweise nachbilden.

Bei SAP sieht man das naturgemäß anders. Laut Klein soll Business AI, wie das KI-Angebot aus Walldorf heißt, in zwei Dritteln der Cloud-Vertragsabschlüsse im vierten Quartal enthalten sein. Überhaupt sieht der SAP-Chef den Konzern in einer einzigartigen Position, das KI-Rennen im betrieblichen Umfeld zu gewinnen. Unbeirrt hält der Manager an dem Credo fest, dass LLM zwar „super-gut“ für unstrukturierte Daten wäre – SAPs Business AI mit der Joule-Agenten-Plattform und der Business Data Cloud aber zur semantischen Vereinheitlichung betrieblicher Daten unabdingbar sei, um realen Nutzen für Unternehmen zu erschließen.

Schon jetzt sollen Firmen wie Siemens, DeAgostini oder Uniper in Teilbereichen deutliche Verbesserungen erzielt haben. Auf der Investorenseite verfangen will diese Erzählung indes nicht. Auch wenn der Aktienkurs derzeit nicht schön sei, will Klein seine Strategie durchziehen, „egal, was der Markt meint“. Er setzt darauf, dass SAP in der zweiten Welle zu den Siegern im KI-Rennen zählt – wenn erst einmal der Hype um die aufzubauende KI-Infrastruktur sich gelegt hat und der Wert für das Geschäft in den Fokus rückt.


(axk)



Source link

Weiterlesen

Beliebt