Künstliche Intelligenz
Kommentar: „Speed it up“ – ein Konzept, das auf Implementierung wartet
Gab es in den vergangenen Jahren eigentlich jemals eine Diskussionsrunde zum Thema Bildung, die nicht sagte, dass wir spät dran sind und endlich etwas tun müssten? Ich kann mich an keine erinnern. Alles tutti in der Republik. Äh, den Ländern. Den 16 Ländern, die sich in Bildungsfragen stets in der Abstimmung (KMK) und auch Konkurrenz zueinander befinden. Bildungspolitik gereicht den Länderchefs auch immer zur Profilierung oder Profilschärfung, da viele andere politische Bereiche sich nicht so einfach auf dezidierte Länderentscheidungen reduzieren lassen.
So war es kaum verwunderlich, dass Geschwindigkeiten und Zeitangaben auf der diesjährigen Konferenz Bildung Digitalisierung wieder eine Rolle spielten. Auf einem Panel mit dem neuseeländischen Bildungsforscher John Hattie und Bundesbildungsministerin Karin Prien (CDU) hieß es, dass zum Thema Bildung, Digitalisierung und auch Medienkompetenz eigentlich schon ganz viel klar sei. Das Wissen ist da, doch wo bleibt die Umsetzung?

Kristina Beer beschäftigt sich gerne mit der Frage, wie sich technischer Fortschritt auf Gesellschaft, Wirtschaft und politische Entscheidungen auswirkt.
Prien überraschte mit ihrer Antwort, weil Zuweisung von Schuld oder Verantwortung immer gefährlich ist: „Also wir haben da noch viele Hausaufgaben zu machen. Aber es beschreibt so ein bisschen unser Grundproblem in Deutschland: Dass wir Schwierigkeiten mit der Implementierung haben.“ Der letzte Satz hatte gesessen. Offenbar so, dass ihr Parteikollege Jan Riedel, Bildungsminister in Sachsen-Anhalt, etwas vorsichtiger nachschob: „Wir haben eine Implementierungs-Herausforderung“. John Hattie hörte sich mithilfe einer Übersetzerin den Schlagabtausch zwischen Ministern und Moderation an und warf nach weiterem Hin und Her ein klares, aber auch neckisches „Speed it up!“ ein. Da lachte das Publikum.
Wir lachen noch und doch bleibt uns dieses Lachen im Bildungskontext oft genug im Halse stecken. Wenn wir uns die marode Bildungsinfrastruktur ansehen, die fehlende digitale Ausstattung, wenn ChatGPT längst Hausaufgaben- und Prüfungsformate auf den Kopf stellt, dann lachen wir – gequält. Es gäbe so viel zu tun, aber wir kommen offenbar nie so richtig aus dem Quark.
Bildungsforscherin Felicitas Macgilchrist erklärte am nächsten Tag auf einem Panel mit Klaus Hurrelmann sowie weiteren Expertinnen und Experten, dass Veränderungen auch dann nötig sind, wenn Ungewissheit herrscht, auch dann, wenn wir sogar wissen, dass wir noch nicht alles wissen (können). Also beispielsweise auch in dem Fall, in dem zwar eine Kommission zu Fragen wie Handy- und Social-Media-Verboten eingesetzt wird, aber bis diese Ergebnisse liefert, das Schul- und Bildungsleben erst einmal mindestens ein ganzes Jahr so weiterläuft.

Das Panel „Digitale Souveränität als Treiber der Transformation: Bildungspolitik für eine starke Demokratie“, zugeschaltet Christine Streichert-Clivot (SPD), Bildungsministerin Saarland, Moderatorin Katja Weber, Bundesbildungsministerin Karin Prien (CDU), Bildungsforscher John Hattie und Jan Riedel (CDU), Bildungsminister Sachsen-Anhalt.
(Bild: Kristina Beer/heise medien)
Macgilchrist verwies auf Forschung zu Ungewissheit. Ungewissheit sei gar nicht schlecht, denn man sehe, dass gerade dann, wenn noch nicht alle Fragen beantwortet werden können, besonders „reflektierte und souveräne Entscheidungen getroffen werden, die einen Platz aufmachen für unterschiedliche Handlungen“. Hatties „Speed it up“ könnte also eigentlich umgesetzt, oder auch „implementiert“ werden, allerdings müsste dafür auch das Bedürfnis nach definitiven, glasklaren und unverrückbaren Gewissheiten über Bord geworfen werden.
Dass unser Bildungssystem dafür derzeit keinen Raum lässt, machte das Panel rund um Macgilchrist aber auch klar. Es gibt in den festgezurrten Bildungsplänen keinen Raum und auch keine Zeit für große Veränderungen im laufenden Betrieb und dazu kommt dann noch der Ressourcenmangel in Form von Ausstattung und Personal. Uta Hauck-Thum kritisierte auch, dass unser Bildungssystem nur reaktiv auf Probleme Antworten sucht und dann auch nicht transformativ reagiert wird, sondern nur kleine Projekte für diese Probleme entwickelt werden, die dem Althergebrachten lediglich an die Seite gestellt werden. Das Althergebrachte steht weiterhin fest!

Das Panel „Jenseits des Instrumentellen: Bildung unter den Bedingungen der Digitalität – von der Haltung zum Kompetenzerwerb für zukünftige Generationen“, Prof. Dr. Klaus Hurrelmann, Prof. Dr. Uta Hauck-Thum, Moderator Fabian Franz, Grundschullehrerin Kristin van der Meer, Schulleiter Micha Pallesche und Prof. Dr. Felicitas Macgilchrist.
(Bild: Kristina Beer/heise medien)
Auf dem Panel mit John Hattie kam auch die Frage auf, wer Veränderungen umsetzen soll oder wie man sie bestärken kann. Klar ist: Soll sich etwas im Klassenzimmer ändern, muss die Veränderung auch dort möglich sein. Doch wird das zugelassen und werden Menschen darin unterstützt? Hattie brachte hierzu ein gutes Beispiel auf die Bühne. In New South Wales hatte man Lehrkräften ein eigenes KI-Tool an die Hand gegeben, mit dem sie angstfrei arbeiten können sollten – dazu gehörte auch, dass der Staat klarmachte: Wir stellen uns vor euch, wenn ihr für eure Arbeit angegriffen werden solltet – unter anderem könnten Eltern klagen. Prien sagte zwar, dass mit Chatbot „Telli“ nun auch so eine eigene KI in deutsche Schulen käme, aber das ließ Hattie nicht gelten – wir sind wieder spät dran.
„Implementierungen“ dauern bei uns so lange, weil in eng gestrickten Bildungsplänen keine Zeit und kein Raum für Veränderung da ist – außerdem wird wirkliche Transformation abgelehnt. Wird digitalisiert, wird ein analoger Prozess digitalisiert, ohne einen Schritt zurückzutreten und zu überlegen, ob es nicht eine ganz andere Lösung gibt. Wenn die Panels auf der Konferenz Bildung Digitalisierung also eines gezeigt haben, dann, dass John Hatties „Speed it up“ nicht in der DNA des deutschen Bildungssystems vorhanden ist. Dass technische Entwicklungen und deren Beschleunigungen darauf aber nun wirklich gar keine Rücksicht nehmen wollen, sollte spätestens durch ChatGPT klar sein. Wie Referentinnen und Referenten bemerkten, könne man zwar weiterhin versuchen, solche Entwicklungen auch durch „Verbote“ aus den Klassenzimmern herauszuhalten, aber das dürfte wohl nur dazu führen, dass es in den nächsten Jahren wieder regelmäßig in verschiedenen Abwandlungen heißt: „das haben wir verschlafen“, „wir sind spät dran“, „das handeln wir gerade unter den Ländern aus“ und „wir haben dazu eine Kommission gegründet.“

Die diesjährige Konferenz des Forum Bildung Digitalisierung lief unter dem Leitthema „Power Up – souverän für die digitale Transformation“ und diskutierte mit Blick auf unsere Bildungslandschaft digitale Souveränität. Es wurde erörtert, wie diese im Bildungssystem verankert werden sollte, aber auch durch Veränderungen im Bildungssystem gesellschaftlich überhaupt erst erreicht werden kann. Die aktuellen Debatten zu einem Handyverbot in Schulen und der Social-Media-Nutzung von Jugendlichen wurden eigentlich in jedem größeren Redebeitrag angeschnitten. Zumeist wurde darauf hingewiesen, dass zumindest in Bezug auf die Social-Media-Nutzung mehr Regulation der Plattformen nötig sei – das Problem übersteige die Ressourcen und Fähigkeiten von Bildungseinrichtungen und Individuen. Mit Blick auf Handyverbote wurde verschiedentlich darauf aufmerksam gemacht, dass Verbote nur dazu führen, dass genau denjenigen Heranwachsenden, die zu Hause keinerlei Medien- oder auch Digitalkompetenz erhalten können, nur der schulische Raum bleibt, um einen reflektierten und sicheren Umgang mit Endgeräten, aber auch den vielfach kritisierten sozialen Medien erlernen zu können.
Die Konferenz konnte mit großen Namen auf ihren Podien aufwarten: Unter anderem waren Bildungsforscher John Hattie, Prof. Dr. Klaus Hurrelmann, Bundesbildungsministerin Karin Prien (CDU), mehrere Landesminister, Bildungsexperten- und -Influencer wie Tarek Zaibi und Fabian Grischkat zugegen.
(kbe)
Künstliche Intelligenz
Linux-Konsole: Valve kündigt neue Steam Machine an
Valve hat eine neue Steam Machine angekündigt – ein Jahrzehnt, nachdem die weitgehend erfolgreichen Originale auf den Markt gekommen sind. Die neue Steam Machine ist ein Linux-Rechner mit Valves ursprünglich für das Steam Deck entwickelter Oberfläche SteamOS, der dank kompakter Würfelform auch wie eine Konsole an den Fernseher gestellt werden kann.
Weiterlesen nach der Anzeige
Herzstück der Steam Machine ist ein Zen-4-Chip von AMD mit 6 Kernen und 12 Threads und einer Taktfrequenz von 4,8 Ghz. Dazu kommt eine modifizierte RDNA-3-GPU mit 28 Recheneinheiten, einer maximalen Taktfrequenz von 2,45 Ghz. Im Motherboard stehen 8 GByte GDDR6-VRAM bereit, dazu kommen 16 GByte Arbeitsspeicher. Leistung auf dem Niveau eines High-End-Rechners ist davon zumindest nominell nicht zu erwarten, die Steam Machine ist eher ein Gaming-PC der Einstiegs- oder Mittelklasse.
Laut Valve schafft die Steam Machine trotzdem Raytracing und 4K-Gaming mit 60 FPS, wenn man AMDs FSR-Upscaling zuschaltet – vermutlich mit sehr aggressiven Upscaling-Voreinstellungen. Insgesamt sei die Steam Machine „sechs mal so kräftig“ wie das Steam Deck, verspricht der Hersteller. Da Valve den Preis der Steam Machine noch unter Verschluss hält, lässt sich das Preis/Leistungsverhältnis noch nicht einschätzen.
Bekannt ist bereits, dass die Steam Machine in zwei Versionen auf den Markt kommen wird, die sich durch den Speicherplatz unterscheiden: Die erste Variante hat recht knapp bemessene 512 GByte Speicherplatz, die zweite Version stockt auf 2 Terabyte auf. Beide Modelle haben einen MicroSD-Slot für die Speichererweiterung.
HDMI und Displayport
Mit Displays und Fernsehern verbindet sich die neue Steam Machine über DisplayPort 1.4 (bis zu 4K 240 Hz) oder das nicht mehr ganz aktuelle HDMI 2.0 (bis zu 4K 120 Hz). Beide Anschlüsse unterstützen HDR und AMDs Freesync-Technik zur automatischen Anpassung der Bildwiederholrate. Dazu kommen 2 USB-A 3.2-Anschlüsse an der Vorderseite sowie 2 USB-A 2.0-Anschlüsse und ein USB-C 3.2-Anschluss an der Rückseite.
WLAN 6E und eine Antenne für Bluetooth 5.3 sind ebenfalls eingebaut. Alternativ kann der Linux-Würfel auch per Ethernet-Kabel ins Internet.Die neue Steam Machine ist 152 Millimeter hoch, 162 Millimeter tief und 156 Millimeter breit, also recht würfelig. Vorne ziert die minimalistische, schwarze Box neben den Anschlüssen eine LED-Statusleiste.
Weiterlesen nach der Anzeige
Die schwarze Frontblende des Mini-PCs lässt sich durch modischere Varianten austauschen, Details dazu sind aber noch nicht bekannt. Von hinten sieht die Steam Machine etwas aus wie ein PC-Netzteil: Durch das Mesh ist der Lüfter zu sehen, der den Mini-PC laut Valve auch im Höchstbetrieb leise halten soll.
Auch neuer Steam Controller angekündigt
Das Steam Deck ist für den Einsatz mit dem neuen Steam Controller gedacht, den Valve parallel angekündigt hat. Mit PCs und Macs verbindet er sich üblicherweise mit einem 2.4-Ghz-Puck, der auch als Ladestation dient – mit der Steam Machine funktioniert er aber ohne diesen zusätzlichen Sender.

Valves neuer Steam-Controller funktioniert mit allen PCs, harmoniert aber besonders mit der Steam Machine.
(Bild: Valve)
Von gängigen Controllern unterscheidet sich der Steam Controller vor allem durch seine zwei Touch-Flächen, die unterhalb der symmetrischen Sticks angeordnet sind und mausähnliche Eingaben ermöglichen. Diese Sticks funktionieren magnetisch und sind damit vor mechanischem Verschleiß und dem berüchtigten „Stick Drift“ geschützt, der etwa bei betroffenen Switch-Controllern für Phantomeingaben sorgen kann. Der Akku des Steam Controllers soll mit einer Ladung 35 Stunden durchhalten.
Vibrationsmotoren im Steam Controller sollen für präzises Haptik-Feedback sorgen, während Gyroskope in den Griffen Bewegungssteuerung ermöglichen – also etwa das Zielen durch leichte Bewegungen des Gamepads. Auch zum neuen Steam Controller macht Valve keine Preisangaben. Sowohl Steam Controller als auch Steam Machine sollen Anfang 2026 auf den Markt kommen.
(dahe)
Künstliche Intelligenz
Open Reception: Open-Source-Terminbuchungstool für Arztpraxen steht bald bereit
Open Reception will eine datenschutzfreundliche und offene Alternative zu bestehenden Terminbuchungssystemen werden. Aktuell entstehen zentrale Module für Akteure wie Ärztinnen, Praxispersonal und Administratoren. Über ein Dashboard können Praxen künftig ihre Termine, Abwesenheiten und Verfügbarkeiten verwalten. Patienten sollen Termine sicher buchen können, ohne ihre Daten großen Plattformen anvertrauen zu müssen.
Weiterlesen nach der Anzeige

Karl Ludwig Weise ist Diplom-Designer und Geschäftsführer der Splice digital GmbH, die auch die gehosteten Open-Reception-Varianten anbieten wird.
(Bild: Michael Palatini)
Das Projekt wird vom Bundesministerium für Forschung, Technologie und Raumfahrt gefördert. Am 28. November 2025 präsentieren die Entwickler einen Prototyp bei den Demo Day des Prototype Fund in Berlin. Ab Ende des Jahres soll die Software selbst installierbar oder als gehostete Lösung genutzt werden können. Wir haben mit Karl Ludwig Weise gesprochen, der Open Reception zusammen mit dem Diplom-Informatiker Hendrik Belitz entwickelt.
heise online: Was motiviert Sie, das Terminportal anzubieten?
Heute müssen Patientinnen und Patienten ihre persönlichen Daten meist in die Formulare großer Anbieter eintragen, ohne wirkliche Kontrolle darüber, was damit passiert. Ärztinnen und Ärzte wiederum sehen sich oft gezwungen, diese Plattformen zu nutzen, weil sie keine Alternativen kennen. Open Reception setzt hier an: Wir wollen eine freie, verschlüsselte und offene Lösung schaffen, bei der Patient und Praxis im Mittelpunkt stehen – nicht das Geschäftsmodell Dritter. Wir wollen eine vertrauenswürdige Infrastruktur schaffen, die zeigt, dass Digitalisierung im Gesundheitswesen auch sicher, offen und gemeinwohlorientiert funktionieren kann. Wenn Patienten freiwillig und informiert mitmachen, haben wir alles richtig gemacht.
Wie stellen Sie sicher, dass Sie an den Bedürfnissen der Praxen entlang entwickeln?
Wir binden Arztpraxen von Anfang an in den Entwicklungsprozess ein. Über Interviews und Feedbackrunden erfahren wir, welche Probleme und Wünsche im Praxisalltag bestehen. Praxen können sich sogar aktiv beteiligen, indem sie an Gesprächen teilnehmen.
Datenschutz ist gerade bei Gesundheitsdaten entscheidend. Wie lösen Sie das Thema technisch?
Weiterlesen nach der Anzeige
Datenschutz und Datensicherheit sind der Kern unseres Projekts. Wir arbeiten mit echter Ende-zu-Ende-Verschlüsselung zwischen Patient und Praxis, sodass niemand – auch kein Administrator – auf sensible Informationen zugreifen kann. Die Schlüssel liegen ausschließlich auf den Geräten der Nutzenden. Auch moderne, quantenresistente Verschlüsselungsverfahren werden berücksichtigt, um langfristig Sicherheit zu garantieren.
Wie steht es um die Integration in bestehende Praxisverwaltungssysteme (PVS)?
Wir entwickeln öffentliche und dokumentierte Schnittstellen, die eine Integration in bestehende Praxissoftware ermöglichen. Außerdem planen wir beispielsweise Features für registrierte Patienten, die dann auch selbst Termine buchen können. Die Kontrolle über die Daten des Patienten bleibt aber beim Patienten.
Ihr Projekt ist Open Source. Warum haben Sie sich dafür entschieden?
Transparenz ist das Vertrauen, das digitale Medizin braucht. Unser Code ist auf GitHub veröffentlicht, ebenso unser öffentliches Projekt-Board. Jede und jeder kann nachvollziehen, was passiert, Fehler melden oder sich beteiligen. So entsteht eine Community-gestützte, sichere Lösung statt einer Blackbox.
Das Thema Geschäftsgeheimnisse steht dem auch nicht im Weg?
Wir haben keine klassischen Geschäftsgeheimnisse. Unser Projekt soll offen und nachvollziehbar sein. Geschäftsgeheimnisse entstehen meist dort, wo mit Daten Geld verdient wird – das tun wir ausdrücklich nicht. Die Arzt-Patient-Kommunikation ist vertraulich und bleibt es auch.
Wird es eine kostenpflichtige Variante geben?
Die Basisversion bleibt frei und quelloffen. Optional planen wir gehostete Varianten mit Service Level Agreements und Support – besonders für Praxen, die keine eigene IT-Betreuung für Web-Anwendungen haben.
Können Interessierte die Entwicklung verfolgen?
Wir veröffentlichen regelmäßig Updates und Einblicke in die Entwicklung auf Mastodon und Bluesky. Dort berichten wir transparent über Fortschritte und laden zur Diskussion ein.
(mack)
Künstliche Intelligenz
Apps zur Planung von Fotos im Praxistest
Ein Porträt für Freunde im Studio, draußen bei Regen oder wechselhaftem Licht, vielleicht noch eine neue, bisher ungenutzte Brennweite – alles kein Problem? Es gibt Menschen, die intuitiv fotografieren und Motive schätzen, die sich spontan ergeben. Doch nicht jedem liegt diese Herangehensweise. Wer Sicherheit und planbare Ergebnisse bevorzugt, bekommt mit allerlei digitalen Abkürzungen Hilfe an die Hand. Wir stellen Ihnen Apps vor, die bei fotografischen Besonderheiten wie Lichtsetzung, Kameraeinstellungen und Wetterphänomenen helfen. Denn gut geplant ist halb erledigt.

Fotograf Michael Jordan hat ein besonderes Auge für Zubehör mit smarten Details, das den Fotografenalltag erleichtert.
Es gibt Planungs-Apps, die jeweils nur eine einzelne Fragestellung beantworten. Zum Beispiel: Wie verändern sich das Wetter oder der Sonnenstand? In vielen Fällen sind zu diesem Thema die Lösungen für die Landwirtschaft (agrarwetter.com) präziser und aufschlussreicher als die Wetter-App auf dem Smartphone. Neben der Wettervorhersage gibt es auch Anwendungen für kameraabhängige Faktoren. Einige simulieren die Schärfentiefe (DOF-Simulator), andere zeigen vorab, wie sich der Bildausschnitt bei unterschiedlichen Brennweiten verändert.
Programme dieser Art sind in den meisten Fällen kostenlos. Zudem ist die Bedienung dank des übersichtlichen Funktionsumfangs einfach und schnell zu verstehen. Darüber hinaus gibt es komplexere kostenpflichtige Apps, die viele Funktionen in einer Anwendung vereinen. Eine Komplettlösung für Außenaufnahmen ist beispielsweise Photo Pills, die ausgefeilteste Lösung für Wetterbedingungen wiederum Viewfindr. Und wenn das Wetter nicht mitspielt, ist ein Tag im Fotostudio, der zuvor mit set.a.light 3D simuliert wurde, eine angenehme Alternative. Es gibt also für jeden Anwendungsfall das passende Planungstool.
Das war die Leseprobe unseres heise-Plus-Artikels „Apps zur Planung von Fotos im Praxistest“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
