Connect with us

Künstliche Intelligenz

Satellitendaten: DLR weist hohe Hitzebelastung in deutschen Großstädten nach


Die erste größere Hitzewelle im August ist hierzulande zwar gebrochen, doch städtebauliche Maßnahmen zum Anpassen an den Klimawandel dürften weiter gefragt sein. In einer Analyse hat das Deutsche Zentrum für Luft- und Raumfahrt (DLR) dafür erstmals systematisch die Verteilung der Oberflächentemperaturen in allen deutschen Großstädten mit über 100.000 Einwohnern untersucht. Die Ergebnisse bestätigen, dass stark versiegelte und dicht bebaute Stadtbereiche besonders unter Hitze leiden.

Die Studie macht die geografische Lage und Struktur der Hitzebelastung in mehr als 70 Städten wie Berlin, München, Frankfurt, Stuttgart, Köln und Hamburg räumlich nachvollziehbar. Basis dafür sind thermale Aufnahmen der US-amerikanischen Landsat-Satelliten, die eine fundierte, datenbasierte Grundlage für gezielte Maßnahmen gegen die Hitze in Ballungsräumen schaffen sollen.

Die DLR-Wissenschaftler untersuchten die durchschnittlichen Oberflächentemperaturen der Sommermonate Juni, Juli und August von 2013 bis 2024. Obwohl Oberflächen- und Lufttemperatur nicht identisch sind, stehen sie in direktem Zusammenhang, was die Identifizierung von Hitzeinseln ermöglicht. Diese Daten haben die Experten mit verschiedenen Variablen wie Stadtgröße, Lage und Strukturtypen – etwa Einfamilienhausgebiet oder Blockbebauung – in Beziehung gesetzt.

Um die Temperaturverteilung noch genauer zu simulieren, kombinierten die Forscher Erdbeobachtungsdaten mit Stadtklimamodellen. Dadurch konnten sie die Hitzeverteilung bis auf einen Meter genau erfassen und wichtige Faktoren wie die Beschattung einzelner Bereiche präzise simulieren. So konnten sie herausfinden, wo der Hitzestress am höchsten ist.

„Aus der Fernerkundung haben wir mittlerweile umfangreiche Daten, um räumliche Hitze-Hotspots zu identifizieren, zu quantifizieren und zu überwachen“, erläutert Thilo Erbertseder, DLR-Forscher für Stadtklima und Gesundheit. „Dieses Wissen kann eingesetzt werden, um die Hitzebetroffenheit der Stadtbevölkerung zu reduzieren.“ Dabei sei zu beachten, dass die gefühlte Hitzebelastung für den Menschen auch von Faktoren wie Luftfeuchte, Windgeschwindigkeit und Strahlung abhänge.

Die Analyse bestätigt, dass Strukturen mit geringer Bebauungsdichte und hohem Grünanteil deutlich niedrigere Temperaturdifferenzen zum Umland aufweisen als dicht bebaute Gebiete. Grüne und blaue Infrastruktur (Vegetation und Wasserflächen) haben einen signifikanten Kühleffekt und werden daher bereits als Anpassungsmaßnahme genutzt, um die städtischen Temperaturen zu senken.

Hannes Taubenböck vom Earth Observation Center (EOC) des DLR betont, dass es in jeder Stadt Nutzungskonflikte zwischen Initiativen zum Anpassen an den Klimawandel und dem Bedarf an Wohnraum und Verkehrsinfrastruktur gebe. Die Forscher wollten daher Wissen liefern, „um gesellschaftliche und politische Entscheidungen dazu bewusster treffen zu können“. Mögliche Initiativen, die auf dieser Datenbasis umgesetzt werden könnten, umfassten die gezielte Information der Bevölkerung bei Hitzewellen, die Bereitstellung kühler Räume, hitzeschutzorientierte Sanierungen und langfristige städteplanerische Eingriffe. Das EOC hat mithilfe von Landsat-Daten auch bereits großflächige Verluste des Baumbestands hierzulande sichtbar gemacht: Von Januar 2018 bis April 2021 geriet demnach auf über 500.000 Hektar Fläche Grünvegetation in Mitleidenschaft. Als Auslöser gelten vor allem starke Hitze- und Dürreperioden, die wiederum Schadinsekten beflügelten.

In künftigen Arbeiten will das DLR die Wirksamkeit verschiedener Abhilfeinstrumente untersuchen und Stadtklimamodelle mit Fernerkundungsdaten verknüpfen, um mögliche Szenarien zu bewerten. Die diesmal herangezogenen Landsat-Erdtrabanten überfliegen Deutschland jeweils am späten Vormittag oder gegen Mittag und erfassen dabei die Temperaturen der Oberflächen, also etwa an Baumkronen in Wäldern oder über Wassergebieten.

Aus diesen Daten berechnete das Team anschließend die Durchschnittstemperaturen der Sommermonate. Die flächendeckende Messung per Fernerkundung löst den Forschern zufolge das Problem, dass Lufttemperaturmessungen in Städten oft nicht ausreichend verfügbar sind, um lokale Hotspots zu identifizieren und gezielte Planungen zu ermöglichen.

„Informationen aus dem Weltraum sind grundlegend für ein noch besseres Verständnis von Prozessen wie den klimatischen Entwicklungen in Städten und Ballungsräumen“, ist sich die DLR-Vorstandsvorsitzende Anke Kaysser-Pyzalla sicher. Durch die im DLR entwickelten Verfahren und Methoden zur Be- und Verarbeitung von Satellitendaten könne das Institut verlässliche Informationen und Anwendungen für ein breites Spektrum an Handlungsempfehlungen bereitstellen.


(des)



Source link

Künstliche Intelligenz

Samsung erhöht RAM-Preise um bis zu 60 Prozent


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der KI-Boom lässt unter anderem den Preis für bestimmte Speicherchips von Samsung, dem weltweit größten Hersteller von Speicherchips, steigen. Das berichtet die Nachrichtenagentur Reuters und beruft sich dabei auf zwei mit den Preiserhöhungen vertraute Personen. Einige Riegelpreise hätten sich um bis zu 60 Prozent im Vergleich zum September erhöht. Das hat potenziell auch Auswirkungen auf die Preise weiterer Produktkategorien wie Notebooks und Smartphones.

Weiterlesen nach der Anzeige

Laut dem Bericht folgt die Preiserhöhung auf eine Entscheidung Samsungs, die offizielle Bekanntgabe der Preise für Lieferverträge im Oktober zu verschieben, wobei Preisdetails normalerweise monatlich bekannt gegeben werden. Die steigenden Preise für die DDR5-Speicherchips, die hauptsächlich in Servern verbaut werden, dürften den Druck auf große Unternehmen, die Dateninfrastrukturen aufbauen, weiter erhöhen, meint Reuters.

Lesen Sie auch

Viele der größten Serverhersteller und Rechenzentrumsbetreiber „akzeptieren mittlerweile, dass sie bei weitem nicht genug Produkte bekommen werden. Die Preisaufschläge sind extrem“, sagte Tobey Gonnerman, Präsident des Halbleitervertriebs Fusion Worldwide, gegenüber Reuters. Die Vertragspreise von Samsung für 32-GByte-DDR5-Speichermodule stiegen Gonnerman zufolge im November auf 239 US-Dollar, gegenüber 149 US-Dollar im September.

Zudem hob Samsung auch die Preise für 16-GByte- und 128-GByte-DDR5-Chips um etwa 50 Prozent auf 135 Dollar respektive 1194 Dollar an. Die Preise für 64-GByte- und 96-GByte-DDR5-Chips sind um mehr als 30 Prozent gestiegen, heißt es weiter.

Glaubt man den Aussagen der TrendForce-Analystin Ellie Wang, könnte Samsung die vierteljährlichen Vertragspreise im Zeitraum Oktober bis Dezember um 40 bis 50 Prozent erhöhen, was über dem für die gesamte Branche erwarteten Durchschnitt von 30 Prozent liegen würde. „Sie sind wirklich zuversichtlich, dass die Preise steigen werden. Der Hauptgrund dafür ist, dass die Nachfrage derzeit sehr stark ist und alle an langfristigen Vereinbarungen mit den Lieferanten arbeiten“, sagte sie Reuters. Diese Vereinbarungen würden Wang zufolge entweder für 2026 oder für 2026 und 2027 zusammen gelten.

Weiterlesen nach der Anzeige

Berichte über Preiserhöhungen für Speicherriegel kursieren schon eine Weile: Erst vergangene Woche hieß es, dass die Hersteller Samsung, SK Hynix und Micron ihre RAM-Preise anheben und ihre Fertigungslinien wegen der hohen Nachfrage nach LPDDR5X- und HBM3/HBM4-Speicher umstellen würden.

Dabei soll nicht nur der KI-Boom die Speicherpreise in die Höhe schießen lassen. Auch das Support-Ende von Windows 10 würde die Nachfrage nach gewöhnlichem DDR5-SDRAM für Desktop-PCs und Mini-PCs sowie nach LPDDR5X für flache Notebooks erhöhen. Ebenso bei Smartphones dürfte der Speicherpreis zu höheren Gesamtkosten führen, wie Ende Oktober bereits von Xiaomi zu lesen war: Die Kosten für Speicherchips seien deutlich stärker gestiegen als erwartet, und das könnte sich noch verschärfen. Der Kostendruck habe sich auch auf die Preisgestaltung der eigenen Produkte übertragen, schrieb Xiaomi-Präsident Lu Weibing auf der chinesischen Microblogging-Seite Weibo. Bei Smartphones anderer Hersteller wird sich das voraussichtlich ähnlich äußern.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Digitale Souveränität: Nein! – Doch! – Oh!


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Berliner und Brüsseler Politikbetrieb herrscht regelmäßig Heißluftalarm: Schlagworte surren dann durch die Luft, angeblich wichtige Themen werden hyperventiliert. Unabhängigkeit, Autarkie, Souveränität – all das sind Worte, die nach Stärke klingen sollen. Und doch Schwäche meinen. Mit jedem politischen Personalwechsel wird festgestellt: Wir sind gar nicht unabhängig von anderen.

Weiterlesen nach der Anzeige




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Nicht bei Halbleitern, nicht bei Netzwerkausrüstern, nicht bei der Energie, nicht bei KI, nicht bei Alltagssoftware. Immer, wenn dann etwas schiefgeht, öffnet sich eine Schublade für Verantwortungsträger, in der ein Sprechzettel liegt: „Es wird eine wesentliche Aufgabe der nächsten Jahre sein, unsere Souveränität durch Innovation zu sichern – auch und gerade unsere digitale Souveränität.“ Das sagte Friedrich Merz bei der Akademie der Technikwissenschaften im Oktober.

Vielleicht keine schlechte Idee, sie hatte nur schon mal jemand. „Wir müssen unsere eigene digitale Souveränität stärken, aber ohne globale Wertschöpfungsketten zu kappen und selbst in Protektionismus zu verfallen.“ Das sagte sein Amtsvorgänger Olaf Scholz 2022 auf der Republica. 2021 wollte Ursula von der Leyen Europa „fit für das digitale Zeitalter“ machen – und dabei, natürlich, die digitale Souveränität stärken. Und Emmanuel Macron stellte 2020 fest: „Die Handlungsfreiheit Europas erfordert wirtschaftliche und digitale Souveränität.“

Noch etwas früher fragte jemand anderes: „Wie können wir sozusagen unsere digitale Souveränität erhalten?“ Es war Angela Merkel. „Wir haben eine staatliche Souveränität; und man hätte auch in bestimmten Bereichen ganz gerne eine digitale Souveränität. Dabei ist es so, dass wir neidlos anerkennen müssen, dass uns in bestimmten Bereichen die Weltentwicklung ein Stück davonläuft.“ Was sie als Herausforderung begriff – die zu bewältigen die Aufgabe gewesen wäre.

In solchen Momenten deutlicher Spontanerkenntnis temporär Verantwortlicher – Merkel 2014 in Folge der NSA-Affäre, Macron bei seiner EU-Militärstrategierede 2020, Scholz in Folge von Coronakrisen-Lieferkettenkrise und Huawei-Diskussion, Merz aufgrund der Probleme mit der Trump-Administration und China – werden Louis-de-Funes-Memes unter Mitarbeitern von Abgeordneten und Ministerien versandt: Nein! – Doch!- Oh! Die französische Originalsequenz („Non! – Si! – Oh!“) hat, das sei angemerkt, nicht annähernd die gleiche Bekanntheit erlangt wie die deutsche Synchronisation.

Weiterlesen nach der Anzeige

Es wäre falsch, der Politik dabei die alleinige Verantwortung für die Situation zuzuschieben. Denn: den Löwenanteil an zu großen Abhängigkeiten verantworten andere, insbesondere die Wirtschaft. Immerhin ist es ihr Geschäftsrisiko, wenn Prozesse nicht mehr funktionieren.

Und doch gibt die Politik jene Regeln vor, die einzuhalten sind. Mit der an diesem Donnerstag endlich verabschiedeten NIS2-Umsetzung etwa. Mit der werden nun endlich weitreichende Regeln eingeführt, wie nicht vertrauenswürdige Hersteller aus nicht vertrauenswürdigen Herkunftsländern mit ihren nicht vertrauenswürdigen Produkten an neuralgischen Stellen nicht mehr verbaut werden dürfen. Das scheint eine dem Grunde nach hervorragende Idee. Noch besser wäre gewesen, damit nicht erst einmal eine kleine Ewigkeit zu warten.

Und natürlich ist sie unvollständig. Denn hier wird wieder nur ein Teilsegment adressiert. Nirgendwo zeigt sich das systematische Problem so deutlich wie in dem Teil des Energiesektors, der einzeln betrachtet klein ist: Elektroauto, Heimspeicher, Wechselrichter, sie alle können – und sollen oft auch – vernetzt sein. Und jeder einzelne Privathaushalt mit seinem Auto, seiner Solaranlage, seinem Batteriespeicher ist rechtlich unkritisch. Hier gibt es keine kritischen Komponenten, selbst wenn alle am identischen Updateserver hängen.

Ähnliches gilt bei der Software: Natürlich ist die Souveränität Deutschlands nicht durch die Abhängigkeit einer einzelnen Stelle von Microsoft-Software, einem bestimmten Cloudanbieter oder einer Firewall-Lösung gefährdet. Erst die Summe an Einzelbetroffenheiten macht die großflächige, wahre Betroffenheit in der Souveränitätsfrage aus. Und viele Unternehmen haben noch nicht einmal eine Idee, von was sie abhängig sind.

Aus Sicht politisch Zuständiger etwa würden Chipfabriken helfen, digital unabhängiger zu werden. Fachleute weisen auf nötige Vorprodukte, Spezialchemie, Wafer, Lithografiemaschinen hin. Und auf Leiterplatten, bei denen der Weltmarkt ebenfalls geografisch stark fokussiert ist. Ohne die geht kein Chip in irgendein Produkt.

Schon vor vier Jahren veröffentlichte das Wirtschaftsministerium eine Schwerpunktstudie, um kritische Abhängigkeiten besser zu erkennen. Was seitdem tatsächlich passiert ist?

Tatsächlich geben sich etwa US-Konzerne große Mühe, dem Problem irgendwie zu entkommen, dass sie in Deutschland und Europa gute Geschäfte machen wollen, aber gleichzeitig immer US-Recht unterliegen. Chinesische Anbieter beteuern, dass sie doch nur Geld verdienen wollten, und es doch vollkommen unlogisch wäre, ein gutes Geschäft durch staatliche Interessen zu gefährden. Und deutsche und europäische Unternehmen verschweigen gern, dass auch sie einem gewissen Erpressungspotenzial unterliegen: Das China- oder USA-Geschäft ist, je nach Branche und Unternehmen, von ausgeprägter Bilanzrelevanz.

In dieser Gemengelage richtet die Bundesregierung am Dienstag einen recht speziellen Gipfel aus: den Europäischen Gipfel zur digitalen Souveränität 2025. Als deutsch-französische Inititative gestartet, soll er eine Einladung auch an andere EU-Mitgliedstaaten sein. Für den Bundeskanzler Friedrich Merz geht es dabei vor allem um wirtschaftliche Chancen. Für Emmanuel Macron geht es um ein französisch-deutsches Aufbruchsignal. Und deutsche Unterstützung für knallharte, französische Interessen.

Denn wenn alle EU-Staats- und Regierungschefs zusammensitzen, zuletzt Ende Oktober kommen dabei Sätze heraus wie dieser: „Angesichts des geopolitischen Wandels, des raschen technologischen Wandels und des zunehmenden globalen Wettbewerbs um Innovation, Talente und Investitionen ist es von entscheidender Bedeutung, den digitalen Wandel in Europa voranzubringen, seine Souveränität zu stärken und sein eigenes offenes digitales Ökosystem auszubauen.“

Das klingt gar nicht so schlecht, könnte man denken. Bloß: Bislang hat es gerade einmal dazu gereicht, ein paar Vorzeigeprojekte zu starten. Eine quelloffene Kollaborationslösung für den Arbeitsplatz der Verwaltung ist fein, beeindruckt aber längst nicht alle auf diesem Planeten. Das ortsgetreue Ersetzen von On-Premise-Rechenzentren durch geolokalisierte, mit US-Betriebsmitteln ausgestattete KI-Clouds wird Deutschland und Europa ebenfalls höchstens punktuell voranbringen.

Was fehlt, ist die zündende Idee, wie es wirklich zu Skaleneffekten kommen kann: Wo kann Europa sich so viel besser und unverzichtbar machen, dass andere sich hier eine Abhängigkeit wünschen müssen? Das kleine, vorab gegebene Versprechen, dass der Staat als Ankerkunde künftig europäische Unternehmen stützen wollen würde, ist kein ausreichender Plan. Und rechtlich auch noch lange nicht in trockenen Tüchern. Aber niemand würde von Friedrich Merz wirklich mehr zum Thema erwarten.

Wenn am Dienstag dann Frankreichs Staatspräsident Emmanuel Macron und der Bundeskanzler ihre Sprechzettel zücken und die Lage der digitalen Souveränität bemängeln, aber Besserung versprechen, dann wird es maßgeblich darauf ankommen, was ab Mittwoch wirklich passiert. Wenn denn überhaupt etwas passiert. Während die Welt immer vernetzter und digitaler wird, wird Europa immer abhängiger. Nein! – Doch! – Oh!


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Battle of the NASen: Zwei Raspi-NAS im Vergleich


Netzwerkspeicher alias Network Attached Storage (NAS) bekommt man ab etwa 160 Euro in allerhand Bauformen. Synology, QNAP, Asustor, Ugreen und viele weitere Hersteller kombinieren kompakte Hardware mit einfach zu bedienender, aber proprietärer Software. Wer hingegen Wert auf quelloffenen Code legt, wird in den Sortimenten selten fündig. Besonders im unteren Preissegment sieht man meist ARM-CPUs ohne öffentliche Dokumentation, bei denen der Tausch des Betriebssystems schwer bis unmöglich ist. Doch der Raspberry Pi kann auch für ein NAS als rettende Alternative herhalten, nötig sind nur passende PCIe-Adapter beziehungsweise Basisplatinen für das Raspberry Pi Compute Module – also das Aufsteckplatinchen.

Zwei dieser Optionen fanden wir besonders interessant und haben sie unter die Lupe genommen: Das CM4-NAS-Double-Deck von Waveshare und die NVMe Base Duo von Pimoroni. Ersteres nimmt ein Compute Module 4 (CM4) sowie zwei 2,5-Zoll-SATA-SSDs auf, der andere ist ein Unterflur-Adapter für den Raspberry Pi 5 B, der per Flachbandkabel an dessen PCIe-Anschluss gesteckt und mit zwei NVMe-SSDs bestückt wird. Beide sind also reine Flash-NAS, die für Magnetfestplatten ungeeignet sind.

  • Aus der vierten Raspberry-Generation taugt nur das Compute Module für den NAS-Betrieb.
  • Durch SSDs liegt die Leistungsaufnahme bei wenigen Watt.
  • Die Software OpenMediaVault macht den Raspi mit wenigen Klicks zum Netzwerkspeicher.

Während der Pimoroni-Adapter den Raspberry-Pi-Fußabdruck beibehält und lediglich das schlichte Gehäuse etwas dicker aufträgt, um Platz für den Adapter zu schaffen, hat Waveshare ein eigenes Gehäuseformat samt Platine entwickelt und ein 2-Zoll-Farbdisplay als Statusanzeige ergänzt.


Das war die Leseprobe unseres heise-Plus-Artikels „Battle of the NASen: Zwei Raspi-NAS im Vergleich“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt