Künstliche Intelligenz
Sicherheit durch KI: Bruce Schneier warnt vor Monopolen und fordert Regulierung
Er hat Verschlüsselungsalgorithmen entwickelt und warnte schon 2007 vor dem nicht-zufälligen Zufallszahlengenerator im NIST-Standard Dual_EC_DRBG. Zugleich gehört Bruce Schneier zu den „Techies“, die seit Jahren raten, Sicherheit für die Nutzer auch durch Regulierung und Wettbewerbsaufsicht abzusichern. Für KI gilt das ebenso, sagt der Harvard-Forscher und Buchautor bei der Münchner Cyber Sicherheitskonferenz. Europa darf, so sein Rat, die gerade aufgestellten Regeln in diesem Bereich nicht abschwächen.
Weiterlesen nach der Anzeige
Sie sagen, KI kann uns in ein paar Jahren vollkommen sichere Software bescheren. Aktuell aber profitieren die Angreifer, weil sie sich die Technologie zum Aufspüren von Sicherheitslücken zu Nutze machen. Werden wir uns über diese Phase hinweg retten können? Werden wir überleben?
Keine Ahnung, ob wir überleben. Im Moment erleben wir ein Wettrüsten. Die KI vervielfacht die Chancen, Schwachstellen zu entdecken. Kriminelle und auch Regierungen nutzen das, um sich offensive Cyberwaffen zuzulegen, und das mit wachsender Geschwindigkeit und Effektivität. Allerdings hilft KI den Verteidigern. Auch sie profitieren, davon, dass Schwachstellen schneller gefunden und gepatcht werden als jemals zuvor. Kurzfristig ist der Angreifer im Vorteil. Langfristig gewinnt die Defensive. Künftig werden Sicherheitslücken schon während der Entwicklung geschlossen und sind dann für immer zu. Unser Problem ist nicht gepatchte Legacy Software, daher stehen uns harte Zeiten bevor.
Ist es nicht eine gewagte Vorhersage, dass KI Software endgültig sicher machen wird?
Optimistisch vielleicht, aber nicht unvernünftig optimistisch. KI ist inzwischen wirklich gut darin, Schwachstellen zu finden und automatisch zu patchen, und wird jeden Monat besser. Ich habe gerade eine Studie gesehen, die zeigt, wie KI Schwachstellen sogar im Objektcode entdeckt. Also praktisch in Feldcodes, ohne Kenntnis des Quellcodes. Das wird gefunden und gepatcht. Das ist völlig abgefahren. Daher glaube ich, dass Schwachstellen irgendwann der Vergangenheit angehören. Nicht morgen, es kann sein, dass es noch fünf oder 10 Jahre dauert – aber KI ist einfach zu gut darin.
Wie unterschiedlich sind entsprechende Kompetenzen verbreitet?
Ich denke, das wird am Ende in Compiler integriert. Es wird keine gesonderte Funktion mehr sein sein, genauso wie Optimierungsverfahren im Compiler stecken. Das ist das Level an Sophistication, welches wir brauchen. Im Moment haben wir Vulnerability Labs, die Schwachstellen aufspüren. Anthropic etwa testet im Moment praktisch jedes Stück öffentlicher Software. Andere machen ähnliche Dinge. Kriminelle nutzen KI-Tools ihrerseits, und daher gibt es eine Menge Schadsoftware da draußen. KI-Ransomware zum Beispiel. Dabei schreibt KI Ransomware, sucht Ziele aus, schreibt dann die notwendigen E-Mails und eröffnet das Bankkonto für die Zahlungen. Ein Knopfdruck und die KI macht Kohle für Kriminelle. Wie schnell sie darin noch besser werden, ist schwer zu sagen. Aber im Moment entwickelt sich das rasend.
Wie unterschiedlich sind die Fähigkeiten auf Seiten der Verteidiger?
Weiterlesen nach der Anzeige
Da gibt es große Unterschiede. Es gibt natürlich jede Menge KI-Marketing-Bullshit. Viele Firmen werben mit KI, weil man das jetzt so macht. Es gibt aber eben auch wirklich clevere Ideen, beispielsweise gibt es einen Ex-Google-Mitarbeiter, der auf der Basis eines Papiers mit dem Titel „Camel“ eine Firma aufgezogen hat bei der es um Human-in-the-Loop-Agenten geht. Ich selbst berate eine Firma, die KI nutzt, um Systeme gegen Datenverlust abzusichern. Also das Meiste ist noch Marketing-Bullshit, aber es gibt kluge Innovationen.
Zugleich vergrößert der Einsatz von KI den Attack-Surface, oder?
KI ist im Grunde nur ein Programm, ein Stück Software, das auf einer Hardware läuft. Natürlich ist es anfällig für die Schwächen traditioneller Software. Das stimmt. Simon Willison spricht von der ‘lethal trifecta’: KI baut auf nicht vertrauenswürdigen Daten auf, hat Zugang zu privaten Daten, und, Drittens, agiert autonom. Wenn wir eine solche KI nutzen, sind wir angreifbar. Punkt. Aus.
Und wie schützen wir uns dagegen?
Zwei Antworten. Erstens: Keine Chance. Bei aktueller Transformer-Technologie (Deep-Learning-Architekturen, A. d. Red.), haben wir keine Möglichkeit, das Einschleusen von Eingabeaufforderungen zu verhindern. Meine zweite Antwort lautet: Prompt Injections sind nur der erste Schritt der Kill-Chain. Ich habe gerade über die sieben Schritte der ‘Promptware Kill-Chain’ geschrieben. Das bedeutet: Wir haben mehrere Angriffspunkte, die wir gegen solche Attacken nutzen können. Der Umstand, dass wir gegen den ersten Schritt machtlos sind, heißt nicht, dass wir uns gar nicht schützen können. Wir müssen die sieben Einzelschritte besser verstehen und uns das zunutze machen. Allerdings kämpfen wir gegen ein sehr bewegliches Ziel.
Wer kann und muss etwas tun? Sie haben auf die Schaffung öffentlicher Audit-Stellen verwiesen.
Ja, das ist eine Maßnahme, die man treffen kann. Das allein reicht aber nicht. Wie immer im Bereich Sicherheit müssen alle ihren Teil beitragen.
Würden Sie sagen, die Entwicklung von KI ähnelt der des Internets? Wir haben einen demokratisierenden Faktor – wir könnten alle Sender, beziehungsweise mit KI Programmierer werden – und zugleich übernimmt das Surveillance-Capitalism-Modell? Nur dass es bei KI schneller geht mit dem Umschalten auf Werbefinanzierung?
Die KI-Blase gleicht der Internetblase in gewisser Weise. Könnte sie platzen wie, sagen wir mal, die Blockchain-Blase? Nun ja, Blockchain war wirklich eine dumme Idee. Niemand startet heute noch eine Blockchain Firma. Die Internetblase war anders, weil das Internet im Kern eine super Idee war. Bloß waren die Firmen dumm, und möglicherweise stecken wir aktuell genau in dieser Phase. KI verändert alle Aspekte der Technologie. Aber Anthropic oder Open AI haben meiner Meinung nach kein nachhaltiges Geschäftsmodell. Wenn die Blase platzt, reißt das die Wirtschaft mit, denn die wird ja davongetragen. Andererseits hat KI als Technologie echtes Potenzial. Wir können damit unglaubliche Dinge tun. Wir dürfen einfach nicht unterschätzen, dass die großen Firmen diese Entwicklung für uns alle ruinieren können. Die Monopolisierung von KI ist ein Riesenproblem, auch wenn wir nicht die gleichen Netzwerkeffekte wie bei Social Media haben. Sie können innerhalb von Sekunden zwischen verschiedenen Modellen wechseln und wir werden nicht die gleiche KI benutzen, weil jemand anderer sie benutzt. Weniger Netzwerkeffekte, weiter sinkende Kosten, um neue Modelle zu entwickeln – ich hoffe einfach, dass die Monopolisierung atrophiert. Aber wir müssen abwarten.
In München haben sie sich als Fan eines von Schweizer Unis entwickelten Modells geoutet, das offen ist und mit nachhaltiger Energie arbeitet.
Die aktuelle Version von Apertus ist ungefähr eineinhalb Jahre hinter dem Stand der Technik zurück. Wir müssen abwarten, wie gut die Performance sein wird. Aber es ist viel billiger. Außerdem bewegen wir uns in Richtung kleinerer, spezialisierter Modelle. Niemand braucht diese großen Modelle, für die riesige Geldberge verbrannt werden.
Wie verhindern wir Monopole, falls sie nicht selbst atrophieren?
Wettbewerbsaufsicht. In den USA passiert das natürlich nicht, weil Geld und Politik zusammenstecken und die Finanzwelt das nicht will. Ich setze daher auf die EU. Ihr seid die regulatorische Superpower des Planeten.
Wirkt das tatsächlich?
Mein Gott, ja. Wenn sie einen Unternehmenszusammenschluss verhindern, dann passiert er nicht. Wenn man einen Konzern aufspaltet, hat man kleinere Einheiten. Das hat globale Effekte. Wir brauchen jemanden, der die Tech-Monopole zerschlägt, und die Vereinigten Staaten werden das nicht machen.
Das ist, was Gesetzgeber und Regulierer tun können. Sonst noch was?
Das wäre das Wichtigste. Das Zweite ist Interoperabilität erzwingen. Der Digital Markets Act, der Digital Services Act der KI Act sind gut. Das muss durchgesetzt werden und man muss dem Druck aus den USA widerstehen, das nicht zu tun. Natürlich wollen die Firmen das nicht und wenn die das nicht wollen, wird Politik losgeschickt. So funktioniert das aktuelle politische System.
Was sagen Sie zur aktuell diskutierten Reform, beziehungsweise Abschwächung der Regeln?
Ich verfolge das nicht im Detail, denn ich habe keinen Einfluss darauf. Aber ich bin kein Fan davon, die Regeln abzuschwächen.
Warum muss man die Demokratie neu verkabeln?
Die Demokratie wird neu verkabelt, ob wir das wollen oder nicht. In meinem Buch spreche ich darüber, wie KI die Demokratie verändert und wie wir an vielen Stellen gar keine Wahl haben. Mir ging es darum, darüber zu schreiben, wie wir KI positiv gestalten können. Manchmal reicht für die Neuverkabelung sogar eine einzelne Person.
Oder es hilft einer Person, die Gesellschaft nach rechts zu drehen und die Demokratie zu gefährden.
KI ermächtigt. Sie ermächtigt Menschen, zu tun, was sie tun wollen. Wenn wir mehr Demokratie wollen, kann KI dabei helfen. Wenn wir weniger wollen, geht das genauso. KI entscheidet nicht über die Richtung. Darüber können wir entscheiden.
Lesen Sie auch
(kbe)
Künstliche Intelligenz
Warum die Digitalisierung des Öffentlichen Gesundheitsdienstes kaum vorankommt
Der Digitalisierungspakt für den Öffentlichen Gesundheitsdienst (ÖGD) läuft bald aus. Man kann also fragen: Was ist in der Zeit (und mit dem Geld) für den ÖGD passiert? Als Informatiker im ÖGD habe ich den Pakt mehrere Jahre begleitet. Dabei sind mir einige Punkte begegnet, die sinnbildlich für die stockende Verwaltungsdigitalisierung in Deutschland stehen.
Weiterlesen nach der Anzeige
Zunächst: Was macht der ÖGD?
Was der ÖGD macht, ist je nach Bundesland unterschiedlich, aber beispielhaft: Schuleingangsuntersuchungen, Gesundheitszeugnisse für Tätigkeiten mit Lebensmitteln, Untersuchungen von Beamtenanwärtern, Trink- und Badewasserüberwachung, Aufbewahrung von Totenscheinen – und im Pandemiefall spielt er eine zentrale Rolle. Gesundheitsämter organisieren Kontaktnachverfolgung und Quarantäneanordnungen. In der Pandemie lief das nur bedingt gut: Prozesse blieben unverändert, Kapazitäten fehlten, also wurde Personal aufgestockt, teils mit Unterstützung der Bundeswehr.
Parallel entstanden privatwirtschaftliche Lösungen wie die Luca-App. Es ging weiter – aber nicht strukturell besser. Der Digitalisierungspakt sollte die Ämter widerstandsfähiger machen: digitaler, effizienter, souveräner. Ambitionierte und notwendige Ziele. Doch der Zustand der Verwaltungsdigitalisierung ist bekannt.
Kommunen setzen eher auf private Anbieter
Im Rahmen des Onlinezugangsgesetzes sollen Verwaltungsleistungen digital verfügbar sein, etwa die Infektionsschutzbelehrung. Dafür existiert theoretisch eine EfA-Leistung („Einer für Alle“), entwickelt in Niedersachsen. Ziel: einheitliche, nachnutzbare Lösungen. Eine Leistungsbeschreibung ist öffentlich einsehbar. In der Praxis setzen viele Kommunen jedoch auf private Anbieter wie das Technologiezentrum Glehn, das nach eigener Darstellung einen erheblichen Marktanteil hat. Die Belehrung wird dort vollständig abgewickelt, Kostenpunkt meist rund zehn Euro pro Vorgang. Das entspricht in manchen Bundesländern einem erheblichen Teil der Gebühr.
Die Identifizierung erfolgt je nach Anbieter über Video-Ident-ähnliche Verfahren oder KI-gestützte Bilderkennung – also biometriebasiert. Die bundeseinheitliche BundID ist als Authentifizierungslösung vorgesehen, wird aber nicht durchgängig genutzt. Die niedersächsische EfA-Lösung wurde zunächst beschafft, später jedoch ohne große Ankündigung eingestellt. Kommunen konnten sie nicht eigenständig weiterführen, da nur vom Land bestimmte Stellen EfA-Leistungen beantragen dürfen. Da die Belehrung OZG-pflichtig ist, blieb vielerorts nur der Weg über private Anbieter.
Weiterlesen nach der Anzeige
Ursachen sind komplexe föderale Strukturen, bürokratische Verfahren, fehlende IT-Fachkräfte und politische Prioritätenwechsel. Ergebnis: Eine öffentliche, einheitliche Lösung existiert – setzt sich aber nicht durch. Beschaffungswege sind unübersichtlich, Entscheidungen auf Landesebene können alle Kommunen ausschließen. So entsteht keine nachhaltige digitale Souveränität.
Bestrebungen zur Vereinheitlichung waren da
Auf Landesebene gab es Bestrebungen zur Vereinheitlichung von Fachanwendungen, etwa durch ÖG-Digital und später GA-Lotse. Während ÖG-Digital wenig überzeugte, wirkte GA-Lotse als offene, moderne und technisch durchdachte Lösung vielversprechend.
In einem landesweiten Austausch zur Präferenz wurde die Diskussion aus meiner Sicht stark moderiert. Pro- und Contra-Listen zeichneten ein verzerrtes Bild. Am Ende blieb alles beim Alten: Die Ämter nutzen weiter ihre bestehenden Systeme. Hinzu kommt das Timing: Die Initiative startete faktisch erst im letzten Förderjahr. Zuvor waren bestehende Systeme mit Fördermitteln ausgebaut worden. Ein sofortiger Wechsel hätte diese Investitionen entwertet – intern wie gegenüber Steuerzahlern schwer vermittelbar.
Unser Amt nutzt OctoWareTN. Ich war offen für GA-Lotse, auch aus Gründen digitaler Souveränität. Doch die Vorteile offener Lösungen wurden kaum vermittelt. Stattdessen stand oft das Interesse an standardisierter Datenlieferung im Vordergrund. Die Umstellungsarbeit hätten die Ämter getragen – ohne klaren Mehrwert.
Unabhängig vom System zeigt sich ein Grundproblem: Fachanwendungen werden häufig nur als Datenbank genutzt, wie eine komplexe Excel-Tabelle. Funktionen wie automatisierte Dokumentenerstellung bleiben ungenutzt oder unbekannt. Prozessänderungen stoßen auf Widerstand, ein Dokumentenmanagementsystem gilt als Zumutung. Oft fehlen Zeit und Know-how, sodass Systeme stagnieren und als „digitale Papierakte“ dienen.
Spezialisierte IT-Fachkräfte rar
Strukturiertes Projektmanagement war in vielen Ämtern historisch nicht nötig. Kleinere IT-Projekte konnten improvisiert werden. Mit Fördermitteln in sechsstelliger Höhe funktioniert das nicht mehr. Es fehlt an langfristiger Planung, klaren Meilensteinen und Erfolgsmessung. Prioritäten wechseln nach Dringlichkeit, am Ende hat alles Priorität.
Die Projektverantwortlichen haben meist weitere Aufgaben, spezialisierte IT-Fachkräfte sind rar. Neue IT-Stellen – etwa nach E9c – bleiben oft unbesetzt. Die Betreuung der Fachanwendungen landet bei Personen, die „halt Computer können“. Zeit und Expertise für echte Weiterentwicklung fehlen.
Kurz: Es mangelt an Personal und Know-how, um Projekte dieser Größenordnung wirksam umzusetzen. Zusätzliche Abstimmungsebenen erhöhen die Trägheit.
Rechtsgrundlagen
Verwaltungshandeln braucht Rechtsgrundlagen, meist auf Landesebene. Das führt zu einem Flickenteppich. Beim Totenschein werden die Stammdaten beispielsweise zunächst im Standesamt erfasst, später im Gesundheitsamt erneut – inklusive fehleranfälliger Übertragungen. Technisch wäre eine digitale Schnittstelle möglich. In manchen Bundesländern existiert die Rechtsgrundlage dafür, in anderen nicht. Sinnvolle Arbeitserleichterungen scheitern so an fehlender Gesetzesgrundlage. Änderungen sind nicht absehbar.
Der Projekterfolg wird über ein Reifegradmodell gemessen, mit Kriterien wie Bürgerzentrierung, Interoperabilität und IT-Sicherheit. Es gibt mehrere Stufen, Mindestziele wurden definiert. Die Ämter melden regelmäßig ihren Stand. Da bei Nichterreichen Rückzahlungen drohen, entsteht ein Anreiz zur wohlwollenden Auslegung. Klare, einheitliche Kriterien fehlen, Interpretationen unterscheiden sich. Nicht jedes Amt wird vertieft geprüft. Das schwächt die Aussagekraft der Metrik erheblich.
Fazit
Nach mehreren Jahren Digitalisierungspakt bleibt der Eindruck: Die Prozesse sind vielerorts wie zuvor – nur mit besserer Hardware. Das Digitalisierungsvorhaben ist mit den aktuellen Strukturen im Öffentlichen Gesundheitsdienst einfach nicht machbar. Es gibt viele Problemgebiete, bei welchen der ÖGD teilweise nicht selbst aktiv werden kann, deren Ursprung auf Ebene der föderalen Verwaltung liegen. In vielen verschiedenen Strukturen wird zu viel Manpower hineingesteckt, ohne echte Ergebnisse.
Und das ist tragisch: Noch ist die Corona-Pandemie in Erinnerung, doch sobald weitere Jahre vergehen, gerät auch der Öffentliche Gesundheitsdienst wieder in Vergessenheit. Der beste Zeitpunkt für umfangreiche Reformen und Modernisierungen wäre jetzt gewesen, denn die nächste Pandemie wird irgendwann kommen. Es wäre schön, darauf vorbereitet zu sein. Stattdessen wird es offenbar wieder Lösungen wie die Luca-App geben. Hach, wie schön das damals mit der Luca-App war.
(mack)
Künstliche Intelligenz
World Computer Day: 80 Jahre ENIAC
Heute ist der Weltcomputertag. Er wird alljährlich am 15. Februar zum Jahrestag der Vorstellung des „Electronic Numerical Integrator and Computer“ (ENIAC) gefeiert und ist dieses Jahr ein ganz besonderes Ereignis. Denn ENIAC wurde vor 80 Jahren der US-amerikanischen Öffentlichkeit vorgestellt. Davor war die Arbeit an dem frei programmierbaren Rechner streng geheim: Ab 1943 arbeiteten J. Prosper Eckert und John W. Mauchly mit 50 Mitarbeitern an der Entwicklung eines Leitbahnrechners zur Erstellung von ballistischen Schusstafeln für das Ballistic Research Center der US-Army, der im Aberdeen Proving Ground eingesetzt werden sollte. Als ENIAC im Dezember 1945 termingerecht fertiggestellt wurde war der Krieg jedoch zu Ende. Die Maschine berechnete anschließend thermonukleare Gleichungen für das Los Alamos Projekt der Wasserstoffbombe, ehe sie der Welt vorgeführt wurde.
Weiterlesen nach der Anzeige
Zum 80. Geburtstag gibt es am World Computer Day eine Reihe von Veranstaltungen, von denen der ENIAC Day im Amerikanischen Helicoptermuseum in Westchester im US-Bundesstaat Pennsylvania die wichtigste sein dürfte. Hier treten die Kinder von Eckert und Mauchly auf, hier erzählen die Töchter der ENIAC-Programmierinnen, was diese geleistet haben. Die Veranstaltung wird vom Compuseum gesponsort, das Computernutzer in aller Welt dazu auffordert, um 14:15 EST ihren Computer zu Ehren von ENIAC für eine Minute auszuschalten. ENIAC selbst lief von 1945 bis 1955 möglichst ohne Abschaltungen, weil seine 17.800 Röhren empfindlich waren. Deshalb wurde versucht, ihn durchgehend laufen zu lassen. Den letzten echten Einsatz hatten einzelne Teile seiner Hardware an seinem 50. Geburtstag im Beisein des damaligen US-Vizepräsidenten Al Gore, der in seiner Rede ENIAC als „Urahn“ des Internets feierte. Gore erhielt dabei auch eine Auszeichnung der University of Pennsylvania für den Begriff des „Information Superhighway“, den er popularisierte.
Vom Raum mit Schalttafeln zum einzelnen Chip
Dass ENIAC auch vor dreißig Jahren noch wirklich rechnen konnte, lag an einem Chip, den Studenten der Universität von Pennsylvania zum 50. Jubiläum entwickelt hatten und der als „ENIAC-on-a-Chip“ bekannt wurde. Zum nun 80. Jubiläum kann man in Gilbert im US-Bundesstaat Arizona das genaue Gegenteil bestaunen. Hier wurde der seinerzeit 30 Tonnen schwere Koloss, obwohl nicht lauffähig, originalgetreu von 80 neurodivergenten Schülerinnen und Schülern in der Turnhalle der PS Academy nachgebaut. Deren Smartphones sind leistungsfähiger als ENIAC.
Die Geschichte von ENIAC ist vielfach erzählt, die seiner ersten öffentlichen Präsentation weniger. Die PR der US-Army gab ein Papier heraus, das ENIAC als „mathematischen Roboter“ beschrieb; der erste Bericht erschien noch am Tag der Vorstellung in der New York Times. Ob das Lösen von Differentialgleichungen das Publikum interessierte, ist nicht bekannt. Der erste, der die Bedeutung der Erfindung erkannte und wissenschaftlich beschrieb, war der britische Mathematiker Douglas Rayner Hartree. Er hatte im zweiten Weltkrieg an einer Differentialmaschine gearbeitet und wurde bereits 1945 in die USA geschickt, um ENIAC zu studieren. Zur öffentlichen Präsentation des Rechners an der Moore School of Electrical Engineering an der Universität von Pennsylvania reiste Hartree mit Alan Turing, John Womersley und Maurice Wilkes an.
Sein zweiteiliger Bericht erschien 1946 in „Nature“ als „The ENIAC, an electronic calculating machine“ und „The ENIAC, an electronic computing machine“. Im Osten las der Computerpionier Nikolaus J. Lehmann die Berichte von Hartree und plädierte, dass man solche empfindlichen Schränke nicht bauen sollte. Er machte sich an die Entwicklung seines Tischrechners D1. Im Westen schrieb der Ballistiker Heinrich Pösch 1947 in der „Zeitschrift für angewandte Mathematik und Mechanik“ über „Eine automatische Rechenmaschine mittels Röhren“. Pösch war zu dieser Zeit Mitarbeiter des französischen Instituts SEA, das die ersten französischen Röhrenrechner baute.
Das „Elektronengehirn“
Weiterlesen nach der Anzeige
Abseits der Fachwelt wurde das deutschsprachige Publikum von Artikeln wie dem über die „Maschine mit Gehirn“ informiert. 1950 beschrieb der „Spiegel“ seiner Leserschaft das Maschinengehirn ENIAC, das „beängstigend menschlich“ funktioniert. „Die Hauptarbeit leisten Tausende von elektronischen Röhren: Eine Gruppe erledigt die eigentliche Rechenaufgabe. Eine zweite stapelt Zwischenlösungen und Befehle an die Maschine auf. Sie stellt eine Art „Gedächtnis“ dar, einen Speicher, aus dem die Maschine zur richtigen Zeit das gerade Gebrauchte herbeiholt.“
Besonders gruselig wird es, wenn das Innere der Maschine beschrieben wird: „Das Innere eines Elektronengehirns ähnelt der Schaltzentrale eines Rundfunkhauses. An den Wänden befinden sich Regale mit Tausenden von Röhren, Schaltern und Kontrolllampen. Dahinter ein Spinngewebe von Leitungen. In der Mitte des „Gehirnkastens“ ist ein „Willenszentrum“, eine Zentrale, von der aus die Zahlen an die Maschine gehen. Zusammen mit den Befehlen, was damit geschehen soll.“ So ist diese frühe Beschreibung eines Rechners gar nicht so weit entfernt von der heutigen Debatte über Künstliche Intelligenz, wenn sich das „Willenszentrum“ angeblich selbstständig macht.
Eckert und Mauchly hatten nichts für das Raunen über „Elektronengehirne“ übrig. Sie machten sich gleich nach der Fertigstellung des ENIAC an die Arbeit, eine verbesserte Version ihrer Rechneridee zu bauen. Befragt, wie er denn seine Arbeit an ENIAC bewertete, antwortete John Presper Eckert: „Was mich am meisten überraschte, war die Tatsache, dass nichts wie der ENIAC da war, obwohl es alle benötigten Komponenten 10 oder sogar 15 Jahre früher schon gab. Der ENIAC hätte 10 oder 15 Jahre früher erfunden werden müssen und die echte Frage ist doch die, warum das nicht schon früher passierte.“
(nie)
Künstliche Intelligenz
Digitale Schule in Brandenburg: Millionen investiert, wenig erreicht
Bernd Müller

(Bild: Dragon Images / Shutterstock.com)
Zwischen Glasfaser und 200-Mbit-Leitung liegen Welten – obwohl beide im selben Bundesland liegen. Ein Blick hinter die Kulissen. ( Teil 1)
Es beginnt mit einem Stapel Papier. Hunderte Seiten, zusammengetragen aus Ministerien und Rathäusern, von Schulträgern und Schulleitungen. Offizielle Antworten auf offizielle Anfragen; Tabellen voller Investitionssummen, Bandbreiten und Fördermittel; Studien.
Weiterlesen nach der Anzeige
Der ursprüngliche Plan: Wie steht es hierzulande um die Digitalisierung an Gymnasien, am Beispiel von Brandenburg gezeigt? Es sollte um WLAN, Laptops, Lernplattformen und Fortbildungen gehen. Das Übliche eben.
Doch je tiefer man gräbt, desto klarer wird: Die eigentliche Geschichte ist eine ganz andere. Sie handelt von einer gewaltigen Kluft zwischen politischer Vision und schulischer Realität; von einer Bürokratie, die das Erreichen des erklärten Bildungsziels unwahrscheinlich werden lässt; und von Laptops, die ungenutzt in Schränken verstauben, während Lehrer um funktionierende Technik kämpfen.
Das digitale Paradies auf dem Papier
Die Vision, die das brandenburgische Bildungsministerium in seinen Antworten zeichnet, klingt erst einmal fantastisch. Da ist die Rede von „erhöhter Lernqualität“, von „Chancengleichheit“, von der „Förderung zentraler Kompetenzen“ wie kritischem Urteilsvermögen und selbstständigem Lernen.
Ganz konkret heißt das: flächendeckendes WLAN, Breitbandanschlüsse mit mindestens einem Gigabit pro Sekunde für jede Schule, eine „1-zu-1-Ausstattung“ – also ein Gerät für jeden Schüler und jede Lehrkraft.
Das Ministerium spricht von einer „gleichwertigen und verlässlichen digitalen Basisinfrastruktur“, von „Sicherstellung einer pädagogisch sinnvollen Nutzbarkeit“.
Weiterlesen nach der Anzeige
Im Juli 2024 haben das Bildungsministerium und die kommunalen Spitzenverbände sogar ein gemeinsames „Strategiepapier zur gemeinsamen Aufgabenwahrnehmung für ‚Digitale Schule‘“ unterzeichnet.
Es ist, auf dem Papier, der Entwurf eines digitalen Paradieses.
Und die Zahlen, die das Ministerium präsentiert, sind beeindruckend. Im Rahmen des DigitalPakts Schule wurden allein für die Ausstattung rund 121,1 Millionen Euro an Fördermitteln bewilligt.
Dazu kommen weitere Millionen für mobile Endgeräte, für IT-Administration, für länderübergreifende Vorhaben.
Seit Anfang des Schuljahres 2025/2026 stellt das Land allen Schulen in öffentlicher Trägerschaft sogar einen eigenen KI-Chatbot namens „Telli“ zur Verfügung – kostenlos, datenschutzkonform, speziell für den Einsatz in der Schule konzipiert. 81 Prozent der Brandenburger Schulen haben das Angebot bereits freigeschaltet.
Doch zwischen Plan und Realität liegt in Deutschland oft die Bürokratie. Und hier, in den Antworten der Städte und Landkreise, beginnt die Geschichte zu kippen.
Die Achillesferse des Föderalismus
Das Grundproblem ist so banal wie verheerend: Die Zuständigkeiten sind geteilt. Das Land Brandenburg ist für die „inneren Schulangelegenheiten“ zuständig – also für die Lehrkräfte, für das, was sie unterrichten sollen, für die Bildungsziele.
Die Städte und Landkreise hingegen, die sogenannten Schulträger, sind für die „äußeren Schulangelegenheiten“ verantwortlich – für die Gebäude, die Tische, die Stühle. Und eben auch für die gesamte IT-Infrastruktur.
Das bedeutet: Das Land kann tolle Ziele ausgeben, kann Strategiepapiere unterzeichnen und Chatbots entwickeln lassen. Aber wenn die Kommune vor Ort kein Geld hat, kein Personal, keine Kapazitäten – dann sind das nur warme Worte.
Und genau das zeigen die Antworten der Schulträger, schwarz auf weiß.
Die Postleitzahlen-Lotterie der Bildung
Es gibt sie, die Erfolgsgeschichten. Der Landkreis Dahme-Spreewald meldet stolz: „Unsere Gymnasien verfügen bereits über einen hohen Grad an Digitalisierung […].“
Alle sechs Gymnasien haben einen Glasfaseranschluss mit 1 Gbit/s, alle – mit Ausnahme von einigen Klassenräumen am Humboldt Gymnasium in Eichwalde – sind mit stabilem WLAN versorgt, die Unterrichtsräume mit digitalen Tafeln ausgestattet. Der IT-Support wird von einem sechsköpfigen Team sichergestellt, das bei der Kreisverwaltung angestellt ist.
Cottbus, die zweitgrößte Stadt Brandenburgs, hat für seine vier Gymnasien über 716.000 Euro aus dem DigitalPakt abgerufen – „vollumfänglich ausgeschöpft“, wie die Stadtverwaltung betont. Es gibt eine öffentlich zugängliche Strategie „Digitale Bildung an Cottbuser Schulen„, einen Zweckverband für den IT-Support, sogar erste KI-Softwarelösungen für Lehrkräfte.
Doch das ist nicht die ganze Geschichte.
Denn dann liest man die Antwort aus dem Landkreis Spree-Neiße – und reibt sich die Augen. Da hängen zwei Gymnasien, das Friedrich-Ludwig-Jahn-Gymnasium in Forst und das Erwin-Strittmatter-Gymnasium in Spremberg, an einer 200-Mbit-VDSL-Leitung. 200 Megabit für eine ganze Schule – das ist weniger, als manche Menschen heute zu Hause haben.
Der Landkreis schreibt selbst, ganz trocken: Videokonferenzen für ganze Klassen? „Nein.“ Nicht möglich. Die nächste Pandemie, die Schulschließungen mit sich bringt, darf also nicht so bald auftreten. Nach dem gescheiterten Glasfaserausbau durch einen früheren Anbieter gibt es nun einen neuen Anlauf – aber wann die Schulen angeschlossen werden, ist noch unklar.
Noch drastischer ist die Lage in Brandenburg an der Havel. Die Stadt, immerhin die drittgrößte in Brandenburg, beschäftigt genau einen IT-Administrator für 23 Schulen. Einen einzigen. Zwar wird ein externer Dienstleister herangezogen, aber für die beiden Gymnasien sind im Monat jeweils nur 15 Stunden eingeplant. Größere Probleme sollten also nicht auftreten.
Laptops verstauben im Schrank
Und dann ist da der Landkreis Barnim. Die Zahlen sind beeindruckend: 5,2 Millionen Euro Investitionen in die digitale Infrastruktur seit 2020, alle Schulen mit Glasfaser versorgt, alle mit stabilem WLAN. Doch dann kommt der Hammer:
„Die Abminderungsstunden der berufenen Lehrkraft für die Tätigkeit als PONK wurden ab 01.08.2024 durch das Land gestrichen.“
PONK – das steht für „Pädagogisch-organisatorische Netzwerkkoordination“. Es waren die Lehrkräfte, die sich an jeder Schule um die digitale Infrastruktur kümmerten und ihren pädagogischen Einsatz koordinierten, also die Brücke zwischen Technik und Pädagogik.
Das Land hat diese Stunden ersatzlos gestrichen. Die Folge, so der Landkreis: „Dementsprechend wenden sich die Schulen bei technischen Problemen häufiger an den Schulträger. Dies führt zu einem hohen Arbeitsaufkommen im IT-Support beim Schulträger.“
Aber es kommt noch absurder. Das Land hat allen Lehrkräften in Brandenburg Dienstgeräte zur Verfügung gestellt – iPads oder Windows-Laptops. Ein riesiger Aufwand, finanziert aus Fördermitteln. Und was passiert mit diesen Geräten?
Brandenburg an der Havel schreibt: „Diese werden in Größenordnung nicht genutzt und liegen ‚zurückgegeben‘ in den Schränken.“ Der Grund: „Die Geräte sind administrativ extrem beschnitten, eine Administration findet nicht statt, da keine Skalierung gegeben ist. Besserung ist nicht in Aussicht.“
Der Landkreis Barnim weigert sich sogar, die Administration dieser Geräte zu übernehmen: „Das Land möchte den Schulträgern die Geräte übertragen. Der Landkreis Barnim als Schulträger lehnt dies ab, da die Kostenfrage nicht geklärt ist.“
Es ist, als schenke das Land den Lehrern ein Auto, ohne zu sagen, wer für Benzin und Versicherung aufkommen soll.
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 5 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
