Künstliche Intelligenz
München macht digitale Souveränität mit eigenem Score messbar
Die Stadt München hat ein eigenes Messinstrument entwickelt, um die digitale Souveränität ihrer IT-Infrastruktur zu bewerten. Der sogenannte Score für Digitale Souveränität (SDS) ähnelt optisch dem Nutri-Score und kennzeichnet IT-Systeme nach ihrer Unabhängigkeit von einzelnen Anbietern und „ausländischen“ Rechtsräumen. Die Technische Universität München war an der Entwicklung beteiligt.
Weiterlesen nach der Anzeige
Das IT-Referat hat im September und Oktober 2025 bereits einen ersten umfassenden Test durchgeführt. Von insgesamt 2780 städtischen Anwendungsservices wurden 194 besonders kritische ausgewählt und anhand von fünf Kategorien bewertet. Die Analyse zeigte bereits einen hohen Grad an Digitaler Souveränität: 66 Prozent der 194 bewerteten Services erreichten die höchsten Stufen (SDS 1 und 2), nur 5 Prozent die kritische Stufe 4 und 21 Prozent die kritischste Stufe 5. Der SDS bewertet dabei nicht nur technische Abhängigkeiten, sondern auch rechtliche und organisatorische Risiken.
„Mit unserem Score wird digitale Souveränität zum ersten Mal messbar, denn nur was wir messen können, können wir auch gezielt verbessern“, erklärte Dr. Laura Dornheim, IT-Referentin und Chief Digital Officer der Stadt München. Die Messbarkeit sei der Schlüssel, um die Unabhängigkeit und Handlungsfähigkeit der öffentlichen Verwaltung zu sichern und systematisch zu steigern. Die bisher mit Stufe 5 bewerteten Dienste setzen sich unter anderem aus gesetzlich vorgeschriebenen Leistungen zur eVergabe, Anwendungsservices großer Anstalten des öffentlichen Rechts in Bayern und Hamburg und Software für die eAkte zusammen.
Definition und Bewertungskriterien
Das IT-Referat definiert digitale Souveränität als die Fähigkeit von Individuen und Institutionen, ihre Rolle in der digitalen Welt selbstständig, selbstbestimmt und sicher auszuüben. Der entwickelte Score basiert auf einem Fragenkatalog, der IT-Services auf verschiedene Risikofaktoren untersucht. Dabei werden unter anderem Vendor-Lock-in-Effekte, Abhängigkeiten von ausländischen Jurisdiktionen und die Verfügbarkeit offener Standards bewertet.
Die Bewertung erfolgt über fünf Kategorien, deren genaue Zusammensetzung das IT-Referat in der Beschlussvorlage dokumentiert hat. Besonders kritische Faktoren führen zu einem Score von null, während die Erfüllung von Standardkriterien positiv in die Bewertung einfließt. Schwachstellen ließen sich so transparent identifizieren, um gezielt Gegenmaßnahmen zu planen.
Integration in städtische IT-Prozesse
Weiterlesen nach der Anzeige
Der SDS soll nun nach Beschluss des Stadtrats in alle IT-Prozesse und Vergabeverfahren einfließen. Künftig werden bei Ausschreibungen strengere Anforderungen an offene Standards gestellt. Das IT-Referat plant zudem, Umstiegsszenarien zu entwickeln, um Lock-in-Situationen zu vermeiden. Die Weiterentwicklung der Methodik erfolgt in Zusammenarbeit mit der TUM. Über die Fortschritte bei der digitalen Souveränität wird das IT-Referat künftig jährlich im E-Government- und Open-Government-Report an den Stadtrat berichten.
Die Münchner Initiative fügt sich in einen breiteren europäischen Trend ein. Während der Bundestag an Konzepten zur Reduzierung der Abhängigkeit von US-Tech-Konzernen arbeitet und Frankreich mit Visio eine eigene Videokonferenzlösung einführt, geht München einen systematischen Weg: Erst messen, dann gezielt verbessern. Der Score soll künftig auch auf weitere IT-Bereiche ausgeweitet werden.
(fo)
Künstliche Intelligenz
Mit der Kamera hoch hinaus: Profikletterer Klaus Fengler im Gespräch
Künstliche Intelligenz
AI Safety Report 2026: Bestehende KI-Sicherheitspraktiken reichen nicht aus
Die Fähigkeiten von General-Purpose-KI, also Modellen und Systemen allgemeiner künstlicher Intelligenz, haben sich im vergangenen Jahr rasant weiterentwickelt. Daraus resultierende Risiken nehmen zu, zumal bestehende Sicherheitspraktiken nicht mithalten können. Zu diesem Schluss kommt der kürzlich veröffentlichte zweite International AI Safety Report.
Weiterlesen nach der Anzeige
Der Bericht ist unter Mitarbeit von über 100 unabhängigen Experten und Expertinnen aus mehr als 30 Ländern und unter Federführung des Turing-Preisträgers Yoshua Bengio entstanden. Er untersucht die Leistungsfähigkeit und Risiken von KI-Modellen und -Systemen wie ChatGPT, Gemini, Claude, Mistral etc., die ein breites Aufgabenspektrum abdecken können. Ziel des Berichts ist Bengio zufolge, eine evidenzbasierte Grundlage für wichtige Entscheidungen im Bereich von „general-purpose artificial intelligence“ zu liefern.
Starke regionale Unterschiede
Mittlerweile nutzen 700 Millionen Menschen wöchentlich führende KI-Systeme. Ihre Einführung verlief dem AI Safety Report zufolge somit schneller als die Initiierung früherer Technologien wie PCs. Gleichzeitig attestieren die Wissenschaftler große strukturelle Unterschiede im globalen Vergleich. So nutzen in einigen Ländern bereits über 50 Prozent der Bevölkerung KI-Systeme, in weiten Teilen Afrikas, Asiens und Lateinamerikas liegt die Nutzungsrate jedoch bei unter 10 Prozent.
Allgemeine künstliche Intelligenz hat sich seit dem Bericht aus dem vergangenen Jahr kontinuierlich und rasant verbessert. Vor allem die Bereiche Mathematik, Programmierung, Naturwissenschaften und autonomer Betrieb verzeichnen den Wissenschaftlern zufolge die größten Fortschritte. Verbesserungen der KI-Fähigkeiten konzentrieren sich dabei zunehmend auf „Post-Training“-Optimierung, also Verfeinerungen der Modelle für spezifische Aufgaben nach deren eigentlichem Training mit Datensets.
Gleichzeitig bleibt die Leistungsfähigkeit von Systemen künstlicher allgemeiner Intelligenz insgesamt ungleichmäßig und unzuverlässig: So können universelle KI-Modelle in komplexen Kontexten glänzen, versagen aber bei einfachen Aufgaben wie dem Zählen von Objekten oder dem logischen Denken in physikalischen Räumen. Insgesamt sind Nutzbarkeit und Risiko von general-purpose KI-Systemen nach Auffassung der Wissenschaftler eng miteinander verflochten: Starke Leistungszuwächse verstärken die potenziellen Risiken.
Cyberangriffe, Desinformation und Abhängigkeit von KI
Die Risiken allgemeiner künstlicher Intelligenz unterteilt der International AI Safety Report 2026 in die drei Kategorien Missbrauch, Fehlfunktion und systemische Risiken.
Weiterlesen nach der Anzeige
Im Bereich Missbrauch von KI-Systemen heben die Forschenden insbesondere Erpressungen, Cyberangriffe oder die nicht konsensuelle Generierung intimer Inhalte hervor. Als besonders alarmierend betrachten sie die Fähigkeiten der KI, Sicherheitslücken in Software zu erkennen. Auch die Verbreitung von Desinformationen mittels KI-generierter Inhalte bereitet den Wissenschaftlern Sorge. So könne ein KI-generierter Inhalt in experimentellen Umgebungen bereits genauso wirksam sein wie ein von Menschen verfasster.
Trotz Fortschritten produzieren KI-Systeme weiterhin fehlerhaften Code, geben Falschinformationen oder irreführende Ratschläge aus. Besonders autonom agierende Systeme sind nach Einschätzung der Wissenschaftler risikoreich, da sie schadensbegrenzende Eingriffe durch Menschen erschweren. Nichtsdestotrotz hätten sich KI-Systeme im autonomen Betrieb verbessert, wenngleich das Risiko von Kontrollverlusten weiterhin bestehe.
Als systemische Risiken definiert der Bericht vor allem die Auswirkungen von KI auf den Arbeitsmarkt sowie Gefahren für die menschliche Autonomie. Von der Automatisierung einer Vielzahl kognitiver Aufgaben werden vornehmlich Wissensberufe betroffen sein. Über das Ausmaß derartiger zukünftiger Entwicklungen ist sich die Forschung dem Report zufolge uneinig. Erste Anzeichen deuten allerdings darauf hin, dass die Gesamtbeschäftigung zwar nicht sinkt, die Nachfrage nach Berufseinsteigern in kreativen Berufen aber abnimmt.
Besorgniserregend ist laut dem AI Safety Report außerdem, dass der Einsatz von KI Menschen zunehmend beeinträchtigt, informierte Entscheidungen zu treffen. Erste Erkenntnisse deuten darauf hin, dass die Abhängigkeit von KI-Tools kritisches Denken schwächt und den Effekt des „Automation Bias“ befördert – die Tendenz, den Ergebnissen von KI-Systemen ohne ausreichende Prüfung und trotz Widersprüchen zu vertrauen.
Stärkung der gesellschaftlichen Resilienz zentral
Ein effektives Risikomanagement bleibt laut International AI Safety Report 2026 schwierig: Neue Fähigkeiten von KI sind unvorhersehbar, die Funktionsweise von Modellen unzureichend erforscht und wirtschaftliche Anreize aufseiten der KI-Unternehmen hemmen die Transparenz. Wenngleich sich technische Schutzmaßnahmen von KI-Modellen verbessern, ist es weiterhin möglich, ihre Mechanismen auszuhebeln, etwa via Prompt Injections. Besonders anfällig dafür sind nach Ansicht der Wissenschaftler Open-Weight-Modelle. Diese bieten für die Forschung und Wirtschaft zwar erhebliche Vorteile, ihre Sicherheitsparameter sind aber einfacher zu entfernen.
Positiv ist dem Bericht zufolge, dass sich die Verpflichtungen der Industrie im Bereich der Sicherheits-Governance ausgeweitet hätten. Trotz dieser Selbstverpflichtungen sei jedoch eine Stärkung der gesellschaftlichen Resilienz zentral. So fordert der AI Safety Report eine Festigung kritischer Infrastrukturen, die Entwicklung von Instrumenten zur Erkennung KI-generierter Inhalte und einen Aufbau institutioneller Kapazitäten zur Reaktion auf neuartige Bedrohungen.
(rah)
Künstliche Intelligenz
IT-Altgeräte: Spenden und Weitergabe statt Müll dominieren in deutschen Firmen
Deutsche Unternehmen gehen mit ausgedienten IT-Geräten mehrheitlich verantwortungsvoll um: 74 Prozent entsorgen funktionsfähige Hardware fachgerecht. Das geht aus einer repräsentativen Umfrage des Branchenverbands Bitkom hervor. Nur ein Prozent wirft die Geräte in den Gewerbeabfall.
Weiterlesen nach der Anzeige
Die Erhebung unter 603 Unternehmen ab 20 Beschäftigten (durchgeführt in den Kalenderwochen 39 bis 44 des Jahres 2025) zeigt, dass Unternehmen unterschiedliche Wege der Wiederverwertung nutzen. 33 Prozent der Befragten spenden ausrangierte Laptops, Server oder Bildschirme an Schulen, Jugendprojekte oder andere gemeinnützige Einrichtungen. 23 Prozent verkaufen die Geräte vergünstigt an die eigene Belegschaft.
Rückgabe und Lagerung als gängige Praxis
28 Prozent der Unternehmen geben ihre IT-Hardware an Leasinggeber zurück, die sich anschließend um Aufbereitung und Weiterverwertung kümmern. 18 Prozent verschenken Geräte direkt an Angestellte, während 12 Prozent sie an spezialisierte Zweitverwerter verkaufen. 15 Prozent lagern funktionsfähige Altgeräte ein, um sie bei Ausfällen, Lieferengpässen oder in Krisensituationen als Ersatz nutzen zu können. Vier Prozent verkaufen an sonstige Dritte.
„Wer Geräte länger in der Nutzung hält, leistet einen aktiven Beitrag zum Umweltschutz und verringert überdies Abhängigkeiten in den Lieferketten“, erklärt Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder. Die längere Nutzung spare Rohstoffe und Energie – wobei der Verband keine konkreten Zahlen zu den Umweltauswirkungen nennt.
Fachgerechte Entsorgung nach ElektroG
Als fachgerecht gilt die Entsorgung laut Bitkom, wenn sie den Vorgaben des Elektro- und Elektronikgerätegesetzes (ElektroG) entspricht, das die EU-WEEE-Richtlinie in Deutschland umsetzt. Dazu gehören die umweltverträgliche Verwertung über zertifizierte Recycling-Systeme wie die Stiftung ear, die professionelle Datenlöschung sowie der Verzicht auf illegale Exporte. In der Praxis kombinieren Firmen unterschiedliche Methoden, wie auch die aktuelle Umfrage zeigt.
Weiterlesen nach der Anzeige
Deutschland liegt beim Elektrogeräte-Recycling mit einer Quote von 85,5 Prozent über dem EU-Durchschnitt von 80,7 Prozent – so zumindest eine Erhebung bei Statista mit Daten aus dem Jahr 2022. Das ElektroG verpflichtet Hersteller, die Kosten für die Entsorgung zu tragen, während im B2B-Bereich individuelle Rücknahmevereinbarungen üblich sind.
(fo)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
