Connect with us

Künstliche Intelligenz

Digitale Souveränität: Nein! – Doch! – Oh!


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Berliner und Brüsseler Politikbetrieb herrscht regelmäßig Heißluftalarm: Schlagworte surren dann durch die Luft, angeblich wichtige Themen werden hyperventiliert. Unabhängigkeit, Autarkie, Souveränität – all das sind Worte, die nach Stärke klingen sollen. Und doch Schwäche meinen. Mit jedem politischen Personalwechsel wird festgestellt: Wir sind gar nicht unabhängig von anderen.

Weiterlesen nach der Anzeige




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Nicht bei Halbleitern, nicht bei Netzwerkausrüstern, nicht bei der Energie, nicht bei KI, nicht bei Alltagssoftware. Immer, wenn dann etwas schiefgeht, öffnet sich eine Schublade für Verantwortungsträger, in der ein Sprechzettel liegt: „Es wird eine wesentliche Aufgabe der nächsten Jahre sein, unsere Souveränität durch Innovation zu sichern – auch und gerade unsere digitale Souveränität.“ Das sagte Friedrich Merz bei der Akademie der Technikwissenschaften im Oktober.

Vielleicht keine schlechte Idee, sie hatte nur schon mal jemand. „Wir müssen unsere eigene digitale Souveränität stärken, aber ohne globale Wertschöpfungsketten zu kappen und selbst in Protektionismus zu verfallen.“ Das sagte sein Amtsvorgänger Olaf Scholz 2022 auf der Republica. 2021 wollte Ursula von der Leyen Europa „fit für das digitale Zeitalter“ machen – und dabei, natürlich, die digitale Souveränität stärken. Und Emmanuel Macron stellte 2020 fest: „Die Handlungsfreiheit Europas erfordert wirtschaftliche und digitale Souveränität.“

Noch etwas früher fragte jemand anderes: „Wie können wir sozusagen unsere digitale Souveränität erhalten?“ Es war Angela Merkel. „Wir haben eine staatliche Souveränität; und man hätte auch in bestimmten Bereichen ganz gerne eine digitale Souveränität. Dabei ist es so, dass wir neidlos anerkennen müssen, dass uns in bestimmten Bereichen die Weltentwicklung ein Stück davonläuft.“ Was sie als Herausforderung begriff – die zu bewältigen die Aufgabe gewesen wäre.

In solchen Momenten deutlicher Spontanerkenntnis temporär Verantwortlicher – Merkel 2014 in Folge der NSA-Affäre, Macron bei seiner EU-Militärstrategierede 2020, Scholz in Folge von Coronakrisen-Lieferkettenkrise und Huawei-Diskussion, Merz aufgrund der Probleme mit der Trump-Administration und China – werden Louis-de-Funes-Memes unter Mitarbeitern von Abgeordneten und Ministerien versandt: Nein! – Doch!- Oh! Die französische Originalsequenz („Non! – Si! – Oh!“) hat, das sei angemerkt, nicht annähernd die gleiche Bekanntheit erlangt wie die deutsche Synchronisation.

Weiterlesen nach der Anzeige

Es wäre falsch, der Politik dabei die alleinige Verantwortung für die Situation zuzuschieben. Denn: den Löwenanteil an zu großen Abhängigkeiten verantworten andere, insbesondere die Wirtschaft. Immerhin ist es ihr Geschäftsrisiko, wenn Prozesse nicht mehr funktionieren.

Und doch gibt die Politik jene Regeln vor, die einzuhalten sind. Mit der an diesem Donnerstag endlich verabschiedeten NIS2-Umsetzung etwa. Mit der werden nun endlich weitreichende Regeln eingeführt, wie nicht vertrauenswürdige Hersteller aus nicht vertrauenswürdigen Herkunftsländern mit ihren nicht vertrauenswürdigen Produkten an neuralgischen Stellen nicht mehr verbaut werden dürfen. Das scheint eine dem Grunde nach hervorragende Idee. Noch besser wäre gewesen, damit nicht erst einmal eine kleine Ewigkeit zu warten.

Und natürlich ist sie unvollständig. Denn hier wird wieder nur ein Teilsegment adressiert. Nirgendwo zeigt sich das systematische Problem so deutlich wie in dem Teil des Energiesektors, der einzeln betrachtet klein ist: Elektroauto, Heimspeicher, Wechselrichter, sie alle können – und sollen oft auch – vernetzt sein. Und jeder einzelne Privathaushalt mit seinem Auto, seiner Solaranlage, seinem Batteriespeicher ist rechtlich unkritisch. Hier gibt es keine kritischen Komponenten, selbst wenn alle am identischen Updateserver hängen.

Ähnliches gilt bei der Software: Natürlich ist die Souveränität Deutschlands nicht durch die Abhängigkeit einer einzelnen Stelle von Microsoft-Software, einem bestimmten Cloudanbieter oder einer Firewall-Lösung gefährdet. Erst die Summe an Einzelbetroffenheiten macht die großflächige, wahre Betroffenheit in der Souveränitätsfrage aus. Und viele Unternehmen haben noch nicht einmal eine Idee, von was sie abhängig sind.

Aus Sicht politisch Zuständiger etwa würden Chipfabriken helfen, digital unabhängiger zu werden. Fachleute weisen auf nötige Vorprodukte, Spezialchemie, Wafer, Lithografiemaschinen hin. Und auf Leiterplatten, bei denen der Weltmarkt ebenfalls geografisch stark fokussiert ist. Ohne die geht kein Chip in irgendein Produkt.

Schon vor vier Jahren veröffentlichte das Wirtschaftsministerium eine Schwerpunktstudie, um kritische Abhängigkeiten besser zu erkennen. Was seitdem tatsächlich passiert ist?

Tatsächlich geben sich etwa US-Konzerne große Mühe, dem Problem irgendwie zu entkommen, dass sie in Deutschland und Europa gute Geschäfte machen wollen, aber gleichzeitig immer US-Recht unterliegen. Chinesische Anbieter beteuern, dass sie doch nur Geld verdienen wollten, und es doch vollkommen unlogisch wäre, ein gutes Geschäft durch staatliche Interessen zu gefährden. Und deutsche und europäische Unternehmen verschweigen gern, dass auch sie einem gewissen Erpressungspotenzial unterliegen: Das China- oder USA-Geschäft ist, je nach Branche und Unternehmen, von ausgeprägter Bilanzrelevanz.

In dieser Gemengelage richtet die Bundesregierung am Dienstag einen recht speziellen Gipfel aus: den Europäischen Gipfel zur digitalen Souveränität 2025. Als deutsch-französische Inititative gestartet, soll er eine Einladung auch an andere EU-Mitgliedstaaten sein. Für den Bundeskanzler Friedrich Merz geht es dabei vor allem um wirtschaftliche Chancen. Für Emmanuel Macron geht es um ein französisch-deutsches Aufbruchsignal. Und deutsche Unterstützung für knallharte, französische Interessen.

Denn wenn alle EU-Staats- und Regierungschefs zusammensitzen, zuletzt Ende Oktober kommen dabei Sätze heraus wie dieser: „Angesichts des geopolitischen Wandels, des raschen technologischen Wandels und des zunehmenden globalen Wettbewerbs um Innovation, Talente und Investitionen ist es von entscheidender Bedeutung, den digitalen Wandel in Europa voranzubringen, seine Souveränität zu stärken und sein eigenes offenes digitales Ökosystem auszubauen.“

Das klingt gar nicht so schlecht, könnte man denken. Bloß: Bislang hat es gerade einmal dazu gereicht, ein paar Vorzeigeprojekte zu starten. Eine quelloffene Kollaborationslösung für den Arbeitsplatz der Verwaltung ist fein, beeindruckt aber längst nicht alle auf diesem Planeten. Das ortsgetreue Ersetzen von On-Premise-Rechenzentren durch geolokalisierte, mit US-Betriebsmitteln ausgestattete KI-Clouds wird Deutschland und Europa ebenfalls höchstens punktuell voranbringen.

Was fehlt, ist die zündende Idee, wie es wirklich zu Skaleneffekten kommen kann: Wo kann Europa sich so viel besser und unverzichtbar machen, dass andere sich hier eine Abhängigkeit wünschen müssen? Das kleine, vorab gegebene Versprechen, dass der Staat als Ankerkunde künftig europäische Unternehmen stützen wollen würde, ist kein ausreichender Plan. Und rechtlich auch noch lange nicht in trockenen Tüchern. Aber niemand würde von Friedrich Merz wirklich mehr zum Thema erwarten.

Wenn am Dienstag dann Frankreichs Staatspräsident Emmanuel Macron und der Bundeskanzler ihre Sprechzettel zücken und die Lage der digitalen Souveränität bemängeln, aber Besserung versprechen, dann wird es maßgeblich darauf ankommen, was ab Mittwoch wirklich passiert. Wenn denn überhaupt etwas passiert. Während die Welt immer vernetzter und digitaler wird, wird Europa immer abhängiger. Nein! – Doch! – Oh!


(nen)



Source link

Künstliche Intelligenz

Dank KI: Komplette Milchstraße inklusive ihrer 100 Milliarden Sterne simuliert


Einem internationalen Forschungsteam ist es erstmals gelungen, die Milchstraße bis hinunter zu ihren etwa 100 Milliarden Sternen komplett zu simulieren, und zwar für einen Zeitraum von 10.000 Jahren. Das hat das japanische Forschungsinstitut Riken mitgeteilt, das die Arbeit geleitet hat. Demnach umfasst die Simulation nicht nur 100-mal so viele Sterne wie die bisher leistungsfähigsten Vorgänger, sie wurde auch 100-mal schneller fertiggestellt. Ermöglicht wurde das demnach durch die Einbeziehung von KI-Algorithmen. Das Vorgehen sei jetzt nicht nur für die Astrophysik von großem Wert, es könne auch bei der Erforschung des Klimawandels und von Wettermustern helfen, ergänzt die Forschungsgruppe.

Weiterlesen nach der Anzeige

Wie die Forscherinnen und Forscher ausführen, konnten mit den bisher besten Simulationen nur maximal eine Milliarde Sterne modelliert werden, Berechnungen zur Milchstraße hatten also als kleinste Einheit immer nur Haufen aus 100 Sternen. Was individuellen Sternen passiert, wurde herausgerechnet. Das war aber vor allem problematisch, weil ein explodierender Einzelstern als Supernova weit über seine direkte Umgebung hinaus Einfluss nehmen kann. Gleichzeitig hätte es 36 Jahre gedauert, wenn man eine Million Jahre in der Entwicklung der Milchstraße mit der jetzt erreichten Detailgenauigkeit hätte simulieren wollen. Mit der jetzt entwickelten Methode würde das lediglich 115 Tage dauern.

Für die verbesserte Simulation hat das Team unter anderem ein KI-Modell mit hochaufgelösten Modellen von Sternenexplosionen trainiert, aus denen die Ausbreitung des ausgestoßenen Gases über 100.000 Jahre abgeleitet werden konnte. In der Folge müssen bei der Simulation der ganzen Galaxie keine Ressourcen mehr für diese Prozesse abgezweigt werden, schreibt das Team. Damit könnten gleichzeitig Dynamiken in der gesamten Galaxie simuliert und enger begrenzte Phänomene wie die Supernovae einbezogen werden. Zur Verifizierung hat das Team die Ausgabedaten mit denen etablierter Simulationen von Supercomputern abgeglichen.

Die Verantwortlichen geben sich überzeugt, dass ihre Herangehensweise auch in anderen rechenintensiven Wissenschaftszweigen eine große Hilfe darstellen kann. Sie verweisen auf Simulationen des Wetters, von Ozeanen und des Klimas insgesamt. In allen müssten eng begrenzte Prozesse mit systemweiten in Verbindung gebracht werden. Zudem zeige ihre Arbeit einmal mehr, dass durch KI beschleunigte Simulationen ein echtes wissenschaftliches Werkzeug sein können. Im konkreten Fall könnten sie uns beispielsweise aufzeigen, wie jene Stoffe in der Milchstraße entstanden sind, aus denen sich schließlich das Leben auf der Erde entwickelt hat. Die Forschungsarbeit dazu wurde zur Supercomputing-Konferenz SC 25 vorgestellt und ist öffentlich einsehbar.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Vergleich: Die 44 interessantesten Monoblock-Wärmepumpen mit R290 zur Sanierung


Die Luft-Wasser-Wärmepumpe (LLWP) eignet sich für alle Neubauten und die große Mehrheit der Bestandsgebäude als ökonomischer Wärmeerzeuger. Da eine Wärmepumpe alles in allem keine allzu komplexe Technik ist, gibt es mittlerweile sehr viele Modelle auf dem deutschen Markt. Hier den Durchblick zu behalten, ist schwer. Deswegen schauen wir uns 45 LLWP-Monoblock-Anlagen mit Propan (R290) als Kältemittel im Bereich 12 +-1 kW Nenn-Heizlast an und vergleichen deren Eigenschaften.

Die Eingrenzung auf rund 12 kW zielt auf typische Heizlasten von mittleren Wohn-Bestandsgebäuden ab, bei denen der Heizungstausch ansteht, umfassende Dämm-Maßnahmen jedoch nicht lohnen. Die Monoblock-Bauweise hat sich weitgehend durchgesetzt, weil sie wesentlich einfacher zu installieren ist – ein wichtiger Faktor im extremen Personalmangel bei Heizungsbauern. Propan (R290) hat sich als Kältemittel ebenfalls in den neuesten Gerätegenerationen weitgehend durchgesetzt, weil es kaum Nachteile hat, solche Kältemittel mit geringem Treibhauseffekt jedoch ohnehin bald vorgeschrieben sein werden in der EU. Deshalb haben mittlerweile praktisch alle Hersteller mindestens eine R290-Modellreihe am Start.

  • Es gibt am deutschen Markt eine Flut sanierungs-tauglicher Wärmepumpenheizungen.
  • Man kann sich da nicht einfach eines aussuchen, aber die Technikübersicht hilft, Fachbetriebs-Angebote zu bewerten.
  • Die größten Preisunterschiede liegen in Ausstattung, Effizienz und leisem Betrieb.

Der Artikel gruppiert die Hersteller nach Herstellungsregion und deren jeweiligen Eigenschaften, Vor- und Nachteilen. Er stellt diese Ausprägungen typischen Bedürfnissen von Hausbesitzern an ihre Heizung gegenüber, aber auch Schlingpflanzen aus dem EU-Vorschriftendschungel. Das Kernstück bildet eine Tabelle mit 44 Geräten und genormten Effizienzbereichen. Damit Sie möglichst viel davon verwerten können, reichen wir eine ausführliche Erklärung zu jedem Parameter.


Das war die Leseprobe unseres heise-Plus-Artikels „Vergleich: Die 44 interessantesten Monoblock-Wärmepumpen mit R290 zur Sanierung“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Samsung erhöht RAM-Preise um bis zu 60 Prozent


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der KI-Boom lässt unter anderem den Preis für bestimmte Speicherchips von Samsung, dem weltweit größten Hersteller von Speicherchips, steigen. Das berichtet die Nachrichtenagentur Reuters und beruft sich dabei auf zwei mit den Preiserhöhungen vertraute Personen. Einige Riegelpreise hätten sich um bis zu 60 Prozent im Vergleich zum September erhöht. Das hat potenziell auch Auswirkungen auf die Preise weiterer Produktkategorien wie Notebooks und Smartphones.

Weiterlesen nach der Anzeige

Laut dem Bericht folgt die Preiserhöhung auf eine Entscheidung Samsungs, die offizielle Bekanntgabe der Preise für Lieferverträge im Oktober zu verschieben, wobei Preisdetails normalerweise monatlich bekannt gegeben werden. Die steigenden Preise für die DDR5-Speicherchips, die hauptsächlich in Servern verbaut werden, dürften den Druck auf große Unternehmen, die Dateninfrastrukturen aufbauen, weiter erhöhen, meint Reuters.

Lesen Sie auch

Viele der größten Serverhersteller und Rechenzentrumsbetreiber „akzeptieren mittlerweile, dass sie bei weitem nicht genug Produkte bekommen werden. Die Preisaufschläge sind extrem“, sagte Tobey Gonnerman, Präsident des Halbleitervertriebs Fusion Worldwide, gegenüber Reuters. Die Vertragspreise von Samsung für 32-GByte-DDR5-Speichermodule stiegen Gonnerman zufolge im November auf 239 US-Dollar, gegenüber 149 US-Dollar im September.

Zudem hob Samsung auch die Preise für 16-GByte- und 128-GByte-DDR5-Chips um etwa 50 Prozent auf 135 Dollar respektive 1194 Dollar an. Die Preise für 64-GByte- und 96-GByte-DDR5-Chips sind um mehr als 30 Prozent gestiegen, heißt es weiter.

Glaubt man den Aussagen der TrendForce-Analystin Ellie Wang, könnte Samsung die vierteljährlichen Vertragspreise im Zeitraum Oktober bis Dezember um 40 bis 50 Prozent erhöhen, was über dem für die gesamte Branche erwarteten Durchschnitt von 30 Prozent liegen würde. „Sie sind wirklich zuversichtlich, dass die Preise steigen werden. Der Hauptgrund dafür ist, dass die Nachfrage derzeit sehr stark ist und alle an langfristigen Vereinbarungen mit den Lieferanten arbeiten“, sagte sie Reuters. Diese Vereinbarungen würden Wang zufolge entweder für 2026 oder für 2026 und 2027 zusammen gelten.

Weiterlesen nach der Anzeige

Berichte über Preiserhöhungen für Speicherriegel kursieren schon eine Weile: Erst vergangene Woche hieß es, dass die Hersteller Samsung, SK Hynix und Micron ihre RAM-Preise anheben und ihre Fertigungslinien wegen der hohen Nachfrage nach LPDDR5X- und HBM3/HBM4-Speicher umstellen würden.

Dabei soll nicht nur der KI-Boom die Speicherpreise in die Höhe schießen lassen. Auch das Support-Ende von Windows 10 würde die Nachfrage nach gewöhnlichem DDR5-SDRAM für Desktop-PCs und Mini-PCs sowie nach LPDDR5X für flache Notebooks erhöhen. Ebenso bei Smartphones dürfte der Speicherpreis zu höheren Gesamtkosten führen, wie Ende Oktober bereits von Xiaomi zu lesen war: Die Kosten für Speicherchips seien deutlich stärker gestiegen als erwartet, und das könnte sich noch verschärfen. Der Kostendruck habe sich auch auf die Preisgestaltung der eigenen Produkte übertragen, schrieb Xiaomi-Präsident Lu Weibing auf der chinesischen Microblogging-Seite Weibo. Bei Smartphones anderer Hersteller wird sich das voraussichtlich ähnlich äußern.


(afl)



Source link

Weiterlesen

Beliebt