Connect with us

Künstliche Intelligenz

„Technologieoffenheit“: Merz will Verbrennerverbot in der EU kippen


Bundeskanzler Friedrich Merz hat sich am Freitag eindeutig gegen das längst beschlossene faktische Verbrenner-Aus in der EU positioniert und angekündigt, den Kurs der Vorgängerregierung korrigieren zu wollen. „Es ist grundsätzlich falsch, wenn der Staat einseitig Technologien vorgibt“, erklärte der CDU-Politiker auf dem Ecosystem Summit der Schwarz-Gruppe (Lidl, Kaufland) in Berlin. Deshalb werbe er auch in Brüssel bei der EU-Kommission und in anderen Mitgliedsstaaten für einen anderen Kurs: Es sei zwar angemessen, CO2-Reduktionsziele vorzugeben, nicht aber konkrete Lösungswege. Das wolle er auf dem EU-Gipfel in Kopenhagen nächste Woche ebenfalls ansprechen.

Merz setzt sich damit klar für Technologieoffenheit ein und kritisiert die einseitige Festlegung auf die Elektromobilität. Er spricht sich dafür aus, das De-facto-Verbot für Neuwagen mit Verbrennungsmotor ab 2035 in der EU zu kippen oder zumindest deutlich offener zu gestalten. Er betonte die Notwendigkeit, der Industrie die Wahl des besten Instrumentariums zu überlassen und nicht durch die Politik in eine technologische Sackgasse zu geraten.

Mit der Ansage fährt der Kanzler einen klareren Kurs. Bei der Eröffnung der IAA Mobility in München Anfang September redete Merz noch um den heißen Brei herum. So betonte er etwa, dass Deutschland grundsätzlich am Umstieg auf die E-Mobilität festhalte. Zugleich rief er aber schon damals ganz im Sinne der Branche nach „mehr Flexibilität“ und einer klugen, verlässlichen europäischen Regulierung. Der 69-Jährige unterstrich, dass die Politik die Automobilindustrie nicht durch eine „Einengung auf eine einzige Lösung“ gefährden dürfe. Bayerns Ministerpräsident Markus Söder (CSU) verlangte zeitgleich explizit, das falsche Verbrenner-Verbot müsse weg.

Merz‘ Positionierung wird als Signal gewertet, auch gegen etablierte EU-Beschlüsse vorzugehen. Von Seiten der CDU/CSU-Bundestagsfraktion und der Europäischen Volkspartei (EVP) gibt es schon länger Appelle für eine Rolle rückwärts. Mit Olaf Lies aus Niedersachsen sprach sich unlängst erstmals auch ein SPD-Ministerpräsident dafür aus, dass es in der EU kein generelles Verbrennerverbot geben soll. Stattdessen sollen ihm zufolge Fahrzeuge mit Verbrennungsmotoren – insbesondere Plug-in-Hybride und Autos mit Range-Extender – weiterhin zugelassen werden dürfen, wenn sie zum Erreichen der Klimaziele beitragen.

EU-Kommissionspräsidentin Ursula von der Leyen gab Mitte September das vage Motto aus: „Wir werden Dekarbonisierung und Technologieneutralität miteinander verbinden.“ Sie ließ durchblicken, dass sie das vorgesehene faktische Verbrenner-Aus früher als geplant überprüfen lassen wolle. Berater heben dagegen hervor: Das „Beharrungsvermögen“ des seit Jahrzehnten etablierten emissionsintensiven Systems aus Verbrenner und fossilem Kraftstoff lasse sich nur überwinden, wenn der staatliche Werkzeugkasten auch technologiespezifische Instrumente umfasse.

Bisher sehen die EU-Vorgaben vor, dass ab 2035 der Flottengrenzwert bei null liegt. Den Autobauern steht es dabei frei, wie sie dieses Ziel erreichen. Es herrscht also grundsätzlich schon Technologieoffenheit. Fest steht aber auch, dass die Dekarbonisierung mit dem Verbrennen von Erdöl nicht zu schaffen sein wird. Es bleiben absehbar die mit Wasserstoff betriebene Brennstoffzelle, unter hohem Energieaufwand hergestellte synthetische Kraftstoffe („E-Fuels“) oder der batterieelektrische Antrieb, der vielfach als technologisch überlegen gilt.

„Wir sind in vielen Branchen nicht mehr wirklich wettbewerbsfähig“, räumte Merz auf dem Wirtschaftsforum auch ein. „Das gilt für die chemische Industrie, das gilt für den Maschinenbau, für den Anlagenbau, für die Automobilindustrie, für die Stahlindustrie.“ Die Ursache seien vor allem zu hohe Fertigungskosten, etwa aufgrund der Energiepreise und der hohen Fehlzeiten von Mitarbeitern. Dabei habe Schwarz-Rot schon deutliche Entlastungen beschlossen.

Parallel machte sich der Kanzler erneut für digitale Souveränität stark: Er wolle, dass wir in Europa „unabhängiger werden, souveräner werden, dass wir auch einen Teil unserer Stärken selbst entwickeln“. Deutschland und andere EU-Staaten seien zu stark von Software und Online-Diensten insbesondere aus den USA abhängig.

Lesen Sie auch


(nie)



Source link

Künstliche Intelligenz

Nvidias Workstation-Grafikkarte RTX 2000 Ada mit 16 GByte im Test


Auf der Nvidia RTX 2000 Ada vom Februar 2024 sitzt ein Grafikchip aus der Ada-Lovelace-Reihe. Nvidia stattet die rund 650 Euro teure Karte mit 16 GByte Speicher aus. Diese Kapazität hat sich für KI-Anwendungen als so etwas wie die Minimalanforderung herauskristallisiert.

Nachdem bereits Intels billigere Arc Pro B50 aus diesem Grunde Aufmerksamkeit auf sich zog, erreichten uns Leserfragen zur RTX 2000 Ada. Die kostet zwar deutlich mehr, hat trotz ihres Alters aber 28 Prozent mehr Rechenleistung und das „CUDA“-Argument auf ihrer Seite, unterstützt also Nvidias hauseigenes Software-Ökosystem, welches in KI-Anwendungen die höchste Verbreitung besitzt.

Gleichsam als bauliche Vorlage für die Intel-Karte dienend, ist auch die RTX 2000 Ada mit halber Bauhöhe und halber Länge für kompakte, flache Gehäuse geeignet. An der Slotblende, die auch in halber Höhe und zum selbstschrauben im Karton liegt, befinden sich vier Mini-DisplayPorts 1,4a, die auch Auflösungen jenseits von Ultra HD (3840 × 2160 Pixel) mit 144 Hertz stemmen. Passende Adapter auf Full-Size-DisplayPort lagen der getesteten „smallbox“-Variante nicht bei.


Das war die Leseprobe unseres heise-Plus-Artikels „Nvidias Workstation-Grafikkarte RTX 2000 Ada mit 16 GByte im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

BSI zur Cybersicherheit: Stabil unsicher


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Vorstellung des sogenannten Lagebilds gehört seit Jahren fest zum Berliner Terminkalender: Traditionell stellen Bundesinnenminister und Präsidentin des Bundesamts für Sicherheit in der Informationstechnik (BSI) dort zum einen den Stand der IT-Sicherheit vor. Und zum anderen eben die Maßnahmen, die gegen die Probleme helfen sollen.

Weiterlesen nach der Anzeige

Die Hauptbotschaft, die Bundesinnenminister Alexander Dobrindt (CSU) diesmal mitgebracht hat: Das BSI und auch seine Präsidentin leisten wichtige Arbeit. „Wir haben Pläne, das BSI deutlich zu stärken“, schildert der Vorgesetzte von BSI-Präsidentin Claudia Plattner. Um 65 Prozent solle der Haushalt der Bonner Behörde im kommenden Jahr anwachsen. Das liegt zum einen an neuen Zuständigkeiten: Mit dem Cyber Resilience Act wird das BSI erstmals eine Marktüberwachungsbehörde.

Künftig soll das BSI die IT-Sicherheit bei vernetzten Produkten auf dem Schirm haben, vom kleinen Consumer-Endgerät bis hin Komponenten, die in kritischen Infrastrukturen genutzt werden. Auch bei jenen wird das BSI 2026 deutlich mehr Zuständigkeiten bekommen – denn mit der anstehenden Verabschiedung des NIS2-Umsetzungsgesetzes werden künftig etwa 30.000 Stellen den erweiterten IT-Sicherheitsvorgaben unterliegen. Prüfkompetenzen, Beratung und auch die Bearbeitung von Sicherheitsvorfällen sollen beim BSI angesiedelt sein. Und auch die Federführung für die Cybersicherheit der Bundesverwaltung, der sogenannte CISO Bund, soll beim BSI beheimatet sein.

Dass die Lage mehr Handeln erfordert, das stellt Bundesinnenminister Alexander Dobrindt klar heraus. Eine Bedrohung liege in „Angriffen staatlich gelenkter Gruppen, die geopolitisch aufgestellt sind und Deutschland ist eines der Topziele im Bereich der Cyberangriffe“, sagte der Innenminister – nach den USA, Indien und Japan sei es das viertrelevanteste Ziel. Und die Bundesverwaltung gibt dabei ein gutes Ziel ab, zeigt der BSI-Lagebericht: „Im aktuellen Berichtszeitraum wird unverändert vereinzelt ‒ in weniger als 10 Prozent der IP-Adressen ‒ Software eingesetzt, die bereits das Ende ihrer Lebensdauer überschritten hat.“ Hier könnte mit der Rolle als CISO auch ein härteres Durchgreifen des BSI möglich werden. „Bitteschön, Frau Plattner“, gibt Minister Alexander Dobrindt die Frage weiter, als er nach Windows 10 in der Bundesverwaltung gefragt wird. Die weist zum einen auf die lebenszeitverlängernden Möglichkeiten hin, aber auch auf die Notwendigkeit für neue Wege.

Insgesamt sei das Updateverhalten deutlich verbesserungsfähig. „Nach wie vor unzureichend geschützte Angriffsflächen“ wie etwa 30.000 verwundbare Microsoft Exchange-Server habe das BSI ausgemacht, berichtet Plattner. Im März 2024 waren es nur 17.000, die dem BSI bekannt waren. Jeden Tag würden 119 neue Schwachstellen der Behörde zur Kenntnis gelangen. Die gute Nachricht aus Sicht von Claudia Plattner: Die Resilienz bei Kritischen Infrastrukturen steigt allmählich an, wenn auch mit viel Luft nach oben. „Wir kommen vorwärts“, sagte die seit Mitte 2023 im Amt befindliche BSI-Präsidentin. Angreifer würden gezielt nach Lücken suchen: „Den Letzten beißen die Hunde.“ Zuletzt habe es immer wieder Probleme mit Software gegeben, die eigentlich für Sicherheit sorgen solle, etwa von VPN-Anbietern.

Weiterlesen nach der Anzeige

Um auch das zu verhindern, will Alexander Dobrindt die Sicherheitsbehörden möglichst früh eingreifen lassen. Ein Hackback sei es nicht, was er plane. Es gehe darum, „neue Befugnisse für die Sicherheitsbehörden“ zu schaffen, „die uns auch ermöglichen, die Infrastruktur von Angreifern vom Netz zu nehmen, zu stören, zu zerstören.“ Dies solle auch dann möglich sein, wenn sich die Angreifer außerhalb der Bundesrepublik befinden. „Das ist kein Hackback“, meint Dobrindt: Es gehe um die Störung und Zerstörung im Zuge der Gefahrenabwehr. Ob das von der dann betroffenen anderen Seite genauso gewertet wird, bleibt bis auf weiteres offen. Da die Zuständigkeit dafür wohl nicht im BSI landen wird, spielt das eher bei anderen Behörden eine unmittelbare Rolle. Allerdings müsste die Bonner Behörde wohl dann mit Reaktionen auf diese „aktive Cyberabwehr“ umgehen.




heise security veranstaltet am 10. Dezember ein Webinar zu NIS-2, das nicht nur erklärt, wer konkret von NIS-2 betroffen ist, sondern auch, was die Richtlinie in der Praxis für ein Unternehmen bedeutet.

Dass die geopolitischen Spannungen bis auf Produktebene Auswirkungen haben, zeichnet der BSI-Bericht noch einmal nach. Darin heißt es etwa, dass „Konzepte zur cybersicheren Umsetzung von Mieterstrommodellen, Energy Sharing, Ladeinfrastrukturen sowie zur Eigenverbrauchsoptimierung und flexiblen Speichernutzung gemeinsam mit der Branche und beteiligten Behörden erarbeitet und nach Stand der Technik umgesetzt werden“ müssten – weil viele einzelne und über die Cloud vernetzte Objekte nicht automatisch dazu führen würden, dass etwas als kritische Infrastruktur eingestuft würde.

Dieses Grundproblem betrifft nicht nur Produkte der Energieversorgung, sondern etwa auch Autos und Sicherheitstechnik wie Videokameras. Eine Zertifizierung allein kann dieses Problem kaum lösen, da viele Produkte regelmäßig – auch im Sinne der IT-Sicherheit – Updates erhalten müssten, wie Claudia Plattner am Vormittag beschreibt:

„Bei vielen Produkten müssen wir gar nicht über Hintertüren, sondern über Vordertüren sprechen.“ Produkte aus China seien dabei verstärkt im Fokus, sagt Plattner. „Dazu kommt, dass der Hersteller diese Daten, die Sie auf diesem Gerät produzieren, auf einem Server sammelt“, mahnt Innenminister Alexander Dobrindt. „Der Zugriff auf diesen kann von unterschiedlicher Stelle möglich sein.“ Wie relevant das sei, sei oft nicht unmittelbar absehbar, sagt Dobrindt, erst in der Zusammenführung ergebe sich daraus ein Problem, etwa beim Schutz kritischer Infrastruktur. „Oftmals ist die boshafte Vermutung, die man haben kann, gar nicht so weit weg von der Realität.“

Was aber die Konsequenz daraus sei? Für Claudia Plattner ist das Konzept der Kontrollschichten maßgeblich, mit denen Zu- und Abfluss von Daten kontrolliert und notfalls auch eine Betriebsfähigkeit unabhängig vom Anbieter sichergestellt werden könne. Es hänge sehr stark von den einzelnen Komponenten ab, weshalb darauf jetzt auch der Fokus liege, schilderte Alexander Dobrindt die aktuelle Herangehensweise, bei kritischen Infrastrukturen könne es etwa in Bereichen zu Positivlisten kommen.

Das weitere Vorgehen soll durch die neuen NIS2-Regeln genauer ausspezifiziert werden, die der Bundestag noch in dieser Woche verabschieden soll. Das aber wiederum wird nur für spezifische, kritische Infrastrukturen gelten. Könne als Konsequenz der Diskussion am Ende auch ein Betriebsverbot, etwa für chinesische Autos stehen? „Nein, damit rechne ich nicht“, sagt Alexander Dobrindt an diesem Morgen in Berlin.

Was das NIS2-Gesetz nur an einer Stelle mit sich bringt, die Opposition jedoch gerne hätte: „Um schwerwiegende Interessenkonflikte zu vermeiden, bleibt es zwingend notwendig, zumindest Teile des BSI endlich unabhängig zu stellen“, fordern Jeanne Dillschneider und Konstantin von Notz von den Grünen. Wie es um die Unabhängigkeit der Behörde an kritischen Stellen ihrer Tätigkeit bestellt ist, wenn politische Wünsche und technische Einschätzungen aufeinanderprallen, darum gab es in der Vergangenheit bereits mehrfach Diskussionen.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Kieler Forscher entwickeln 3D-Druckverfahren für Glas


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Team aus Kiel hat ein neues 3D-Druck-Verfahren für Glas entwickelt. Nach Angaben der Forscher vereinfacht es die Verarbeitung von Glas deutlich, da ein aufgebautes Werkstück nicht mehr gehärtet werden muss.

Weiterlesen nach der Anzeige

Laser-assistiertes Schmelzdrucken (Laser-Assisted Melt Printing, LAMP) nennen die Materialforscher von der Kieler Christian-Albrechts-Universität das Verfahren. Dabei kommt eine spezielle Partikeltinte auf Silica-Basis zum Einsatz. Ein hochenergetischer Laser verschmilzt die Partikel zu einem gläsernen Werkstück.

Einige Parameter können während des Drucks angepasst werden: „LAMP erlaubt es, die physikalischen Eigenschaften wie Dichte, Glätte, Farbe und Transparenz bereits während des Drucks zu steuern“, sagt Projektleiter Leonard Siebert.

Die Tinte enthält etwa zehn Prozent Silikatpartikel mit einem Durchmesser von 40 Nanometern sowie 43 Prozent Borsilikatpartikel mit einem Durchmesser von 40 Mikrometern. Die Partikel werden in eine Lösung aus Wasser, dem Bindemittel Polyethylenglykol und einem geringen Teil Essigsäure gerührt. So entsteht eine zähflüssige Flüssigkeit, die dann mit dem 3D-Drucker verarbeitet werden kann.

Die Tinte wird schichtweise auf eine Druckplatte ausgebracht. Ein Laser verschmilzt die Tinte mit der Schicht darunter. So entstünden „glatte, dichte Strukturen ohne Lufteinschlüsse“, teilte die Forscher mit. Messungen mit dem Elektronenmikroskop und dem Spektroskop hätten gezeigt, dass das Material vollständig verdichtet war. Über Laserleistung und Schreibgeschwindigkeit lassen sich dabei Farbe und Transparenz des Glases modifizieren.

Zudem können die Forscher die optischen Eigenschaften ändern, indem sie der Tinte Gold- und Silberionen zusetzen, die beim Drucken zu Metallnanopartikeln werden. „Diese Nanopartikel wirken wie winzige Filter: Sie lassen nur bestimmte Wellenlängen durch und blockieren andere“, sagte Teammitglied Kolja Krohne.

Weiterlesen nach der Anzeige

Dabei bestimmt die Größe der Partikel, welche Lichtfarben absorbiert oder gestreut werden: Kleine Partikel verschieben die Farbe ins Blaue, größere ins Rote. So können beispielsweise Filter gedruckt werden, die nur Licht mit einer bestimmten Farbe durchlassen.

Es ist nicht das erst 3D-Druckverfahren mit Glas. Bei den bisherigen Verfahren muss das Werkstück normalerweise nach dem Druck jedoch noch in einem Brennofen gehärtet werden, was mehrere Stunden dauert und einen hohen Energieaufwand erfordert.

Für die Studie, die in der Fachzeitschrift Materials & Design erschienen ist, hat das Team um Siebert mit Glas gedruckt. Allerdings ließen sich auf diese Weise auch andere Materialien verarbeiten, sagen sie. Dabei denken sie vor allem an Keramik.

„Bei herkömmlichen Verfahren müssen Keramiken meist in Öfen bei weit über 1000 Grad Celsius gebrannt werden. Das verbraucht viel Energie, dauert lange, setzt die Bauteile starken Spannungen aus und erschwert die Herstellung filigraner oder patientenspezifischer Implantate“, sagt Siebert. Das sei mit LAMP nicht der Fall. Mit diesem Verfahren könnten sich in Zukunft beispielsweise Zahn- oder Knochenimplantate herstellen lassen.


(wpl)



Source link

Weiterlesen

Beliebt