Künstliche Intelligenz
FAQ: So bootet Windows per UEFI
Wenn ein UEFI-PC startet, läuft im Hintergrund mehr ab, als das auf dem Bildschirm angezeigte Hersteller-Logo vermuten lässt. Die Details schildert der Artikel „So bootet Windows per UEFI“, hier liefern wir Antworten zu Fragen aus der Praxis, etwa zu Compatibility Support Module, Architektur, BCDedit-Eigenheiten, UEFI-Variablen und weiteren. Wir liefern auch Hinweise, was Sie besser lassen sollten.
UEFI = UEFI-Boot?
Wenn mein Mainboard eine UEFI-Firmware besitzt, bedeutet das automatisch, dass Windows stets per UEFI bootet?
Nein. Der UEFI-Standard sieht vor, dass die Mainboard-Hersteller ein Compatibility Support Module in die Firmware einbauen können, kurz CSM. Wenn das aktiv ist, verhält sich das UEFI, als sei es ein Legacy-BIOS, und der Bootprozess läuft ganz anders ab.
Das war die Leseprobe unseres heise-Plus-Artikels „FAQ: So bootet Windows per UEFI“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Altes Wissen, neue KI: SAPs Strategie für das autonome Unternehmen
Seine gerade gestartete Kundenveranstaltung Sapphire nutzt SAP, um die insbesondere von der Finanzwelt herbeigesehnte Antwort auf eine KI-geprägte Software-Welt zu präsentieren. Wenig überraschend lautet das Zielbild Autonomous Enterprise, bei dem KI-gestützte Assistenzen Hand in Hand mit dem gewöhnlichen Personal arbeiten und Geschäftsabläufe vollständig „übernehmen“.
Weiterlesen nach der Anzeige
Die neu vorgestellte Autonomous Suite automatisiert die entsprechenden End-to-End-Prozesse. Wie das SAP-Management gerne und häufig betont, stützen sich die Arbeit und Durchführung hierbei auf das seit der SAP-Gründung in über fünfzig Jahren zusammengetragene Kontextwissen zum betrieblichen Geschehen in Unternehmen.
Knowledge Graph als semantisches Herz
Die technische Grundlage für die neue Suite bildet die gleichfalls neu vorgestellte Business-AI-Plattform. Dabei handelt es sich weniger um eine wirkliche Neuentwicklung, sondern zuvorderst um das Zusammenlegen der Business Technology-Plattform (BTP), Business Data Cloud (BDC) und Business AI (Joule, Joule Agents, AI Foundation) in einer geregelten Umgebung.
Das semantische Herz bildet der Knowledge Graph, an dem SAP gleichfalls schon länger strickt. Dieser liefert den Agenten eine strukturierte Übersicht über alle Geschäftseinheiten, Prozesse und Beziehungen in der gesamten SAP-Landschaft eines Anwenderunternehmens. SAP hat inzwischen eine Reihe von Domänenmodellen erstellt, die anhand von Programmcode, Daten, Metadaten, Geschäftsprozessen, Architekturwissen und Dokumentation trainiert wurden. In Kombination mit Kontextgraphen sollen diese die inhärente Logik und Kontrolllogik der SAP-Anwendungswelt den neuen Agenten und Assistenzen zuführen.
Lass das mal die KI-Agenten machen
SAP stellt auf der Sapphire mit Joule Work außerdem einen neuen dynamischen Arbeitsbereich vor, der ein absichtsgesteuertes Arbeiten unterstützt. In natürlicher Sprache sollen Anwender hier einfach formulieren, was sie erreichen wollen und den Rest an die KI beziehungsweise den Joule-Assistenten delegieren. Die Assistenten erkennen anhand des Kontexts die Absichten der Nutzer und koordinieren die entsprechenden Agenten im gesamten Unternehmen. Die Work-Umgebung ist interoperabel angelegt, soll also als zentrale Schnittstelle zwischen SAP- und Nicht-SAP-Umgebungen dienen.
Über Joule Work können Nutzer auch auf die Studio-Umgebung zugreifen. Hier lassen sich dann eigene Agenten erstellen, die über das Model Context Protocol (MCP) und das Agent2Agent-Protokolls (A2A) auch auf Tools oder Agenten von Drittanbietern zurückgreifen können.
Weiterlesen nach der Anzeige
Für die Umsetzung agentenbasierter Funktionen verlässt sich SAP nicht allein auf Eigenentwicklungen, sondern greift weiterhin auf die Tools einschlägiger Anbieter zurück, Anthropics Claude beispielsweise wird die Joule-Agenten in den Bereichen Personalwesen, Beschaffung und Lieferkette unterstützen. Mit AWS sind künftig Datenintegrationen möglich, ohne dass zwischen der Athena und BDC Daten hin- und hergeschaufelt werden müssen.
Mit Zukäufen Lücken geschlossen
Nvidias OpenShell dient wiederum als vertrauenswürdige, sichere Laufzeitumgebung für Joule Studio, um beliebige Agenten in der SAP Business AI Platform erstellen, bereitstellen und verwalten zu können. Ferner schließen Zukäufe mehrere funktionale Lücken im Angebot. Der Reltio-Kauf etwa soll Daten aus unterschiedlichen Quellen graphenbasiert zu einer konsistenten Sicht auf Stammdaten („Golden Record“) zusammenführen. Die angestrebte Übernahme von Dremio beschleunigt den Weg der BDC, SAP- und Nicht-SAP-Daten in ein Apache-Iceberg-natives Lakehouse.
Die gleichzeitig verkündete Akquisition von Prior Labs, einem Pionier für Tabellarische Foundation Models (TFMs), unterstützt die Entwicklung tabellarischer Grundmodelle für betriebliche Aufgaben. Da Unternehmensanwendungen Daten und Zahlen typischerweise in Tabellen organisieren, mangelt es den großen Sprachmodellen an dieser Stelle buchstäblich am grundlegenden Verständnis. Mit dem RPT (Relational Pretrained Transformer) ist SAP selbst hier bereits seit einigen Monaten mit einem eigenen Produkt unterwegs, das auf Grundlage tabellarischer ABAP-Daten Dinge wie Zahlungsverzögerungen, Upselling-Möglichkeiten et cetera vorhersagt. In der neuen 1.5-Version erhält dieses nun einen Chat-Assistenten, um mithilfe von Fragen in natürlicher Sprache tabellarische Daten und die dahinter liegenden Ergebnisse weitergehend erkunden zu können.
Die großen und kleinen Aktivitäten zahlen alle darauf ein, dass SAP über die Business-AI-Plattform auch in einer KI-geprägten Softwarewelt die Hand auf die zusammengetragene Unternehmens- und Prozess-Expertise hält. Wie es heißt, soll die neu eingeführte Autonomous Suite bereits mehr als 50 domänenspezifische Joule-Assistenten in den Bereichen Finanzen, Lieferkette, Beschaffung, Personalmanagement und Kundenbindung umfassen. Diese automatisieren die entsprechenden End-to-End-Prozesse, indem sie über 200 spezialisierte Agenten koordinieren.
Daneben hat SAP acht autonome Industrie-Lösungen eingeführt, die branchenbezogene Prozesse von Anfang bis Ende abwickeln und dabei deren spezifische Logik sowie regulatorische Anforderungen integrieren. Ein wenig aufgeweicht wird im Übrigen auch SAPs Politik, die KI-Angebote ausschließlich den Anwendern der Cloud-basierten Unternehmensprogramme zukommen zu lassen. Sie sollen künftig auch für Anwender mit traditionellen On-Premises-Plattformen zugänglich sein – vorausgesetzt sie haben mit der Einführung beziehungsweise Überführung ihrer Anwendungen in die Cloud begonnen und mit SAP einen entsprechenden (Rise-)Plan abgeschlossen.
(axk)
Künstliche Intelligenz
Digitalisierung: Warum die Pflege mehr Mitsprache fordert
Die Pflege sei politisch endlich „angekommen“, sagt Thomas Meißner vom Deutschen Pflegerat im Gespräch mit heise online. Doch bei Digitalisierung, Selbstverwaltung und Finanzierung gebe es weiterhin massive Defizite. Meißner, gelernte Pflegefachkraft und seit Jahren eine der profiliertesten Stimmen zur Digitalisierung in der Pflege, fordert deshalb eine eigene Pflegeinformatik-Initiative, verlässliche Investitionen und mehr Mitsprache der Profession.
Weiterlesen nach der Anzeige

Thomas Meißner, Vorstand AVG, Mitglied im Deutschen Pflegerat (DPR).
(Bild: Anja Dorny)
Besonders kritisch sieht er aktuelle politische Überlegungen zur Begrenzung von Pflegeleistungen sowie die schleppende Umsetzung digitaler Infrastruktur. Zudem warnt er davor, fachliche Entscheidungen zunehmend nach Kassenlage zu treffen.
„Die Pflege ist endlich sichtbar geworden“
Wir haben vor rund einem Jahr schon einmal miteinander gesprochen, damals vor allem über das Pflegekompetenzgesetz und die Digitalisierungpläne für die Pflege. Seitdem ist viel passiert. Wie fällt Ihr Zwischenfazit aus?
Insgesamt muss man für die Pflege eine positive Bilanz ziehen. Die Pflege rückt stärker in die Öffentlichkeit und stärker ins politische Bewusstsein. Viele Forderungen, die wir über Jahre erhoben haben, kommen inzwischen zumindest schrittweise an. Natürlich ist noch viel Luft nach oben, aber man muss klar sagen: Die Pflege ist politisch angekommen.
Auch der Deutsche Pflegerat wird inzwischen ernst genommen und gesetzlich als maßgebliche Organisation anerkannt. Dahinter steht die Expertise vieler Mitgliedsverbände und damit ein sehr breites Fachwissen aus Praxis, Wissenschaft und Ausbildung. Das ist ein Fortschritt.
„Wir haben viele digitale Autobahnen“
Weiterlesen nach der Anzeige
Gleichzeitig hört man aus der Praxis weiterhin viel Frust über die Digitalisierung.
Die Digitalisierung ist grundsätzlich gut gedacht. Wir sind deutlich weiter als noch vor fünf Jahren. Aber wir haben nach wie vor zu viele Insellösungen. Die Verbindung zwischen den Systemen funktioniert nicht richtig.
Ich beschreibe das gern mit einem Bild: Wir haben viele digitale Autobahnen gebaut, viele Brücken dazu – aber jeder fährt mit seinem Auto irgendwo am Rand herum und kommt gar nicht auf die Autobahn. Genau das ist das Problem der fehlenden Interoperabilität.
Das betrifft allerdings nicht nur die Pflege.
Nein, natürlich nicht. Aber in der Pflege merkt man die Folgen besonders stark. Die Telematikinfrastruktur ist technisch da, viele Einrichtungen haben inzwischen KIM-Adressen. Nur: Wenn niemand sie nutzt, bringt das wenig.
Wenn ein Pflegedienst digital mit einer Arztpraxis kommunizieren will und die Praxis sagt: „Machen wir nicht“, dann scheitert es schon. Oder ein Krankenhaus möchte digital Daten austauschen und der ambulante Dienst sagt: „Zu kompliziert.“ Dazu kommen veraltete Konnektoren, lange Bearbeitungszeiten bei der Finanzierung oder technische Probleme. Das Ergebnis ist: Eine eigentlich gute Idee wird in der Praxis nicht konsequent genutzt.
Wo sehen Sie die größten strukturellen Probleme?
Wir haben bis heute keine Pflegeinformatik-Initiative. Das halte ich für einen großen Fehler. Wir brauchen standardisierte Normen für pflegerische Daten, für Dokumentation, Datenaustausch und Auswertung. Auch künstliche Intelligenz wird nur so gut sein wie die Datenbasis dahinter. Schlechte Daten führen zu schlechter KI.
Die Pflege hat dabei ganz eigene Anforderungen. Die Cybersicherheit in einem Krankenhaus ist etwas anderes als in einem kleinen ambulanten Dienst oder einer stationären Langzeitpflegeeinrichtung. Diese Besonderheiten werden bislang zu wenig berücksichtigt.
Bei den Ärzten gab es früh eigene Informatikinitiativen. Genau so etwas brauchen wir in der Pflege ebenfalls.
Sie haben sich auch den aktuellen Referentenentwurf zum GeDIG angesehen. Was fehlt Ihnen dort aus Sicht der Pflege?
Vieles im GeDIG ist weiterhin stark aus der Logik ärztlicher Versorgung gedacht. Die pflegespezifischen Anforderungen kommen aus meiner Sicht noch zu wenig vor. Wir brauchen zum Beispiel endlich eine Pflegeinformatik-Initiative, also klare Standards dafür, wie pflegerische Daten erhoben, strukturiert und zwischen den Systemen ausgetauscht werden.
Gerade in der Pflege haben wir ganz andere Arbeitsrealitäten als in einer Arztpraxis oder einem Krankenhaus. Ein ambulanter Pflegedienst arbeitet mobil, oft unter Zeitdruck und mit sehr unterschiedlichen technischen Voraussetzungen. Das muss sich auch in den gesetzlichen Rahmenbedingungen widerspiegeln.
Außerdem fehlen im GeDIG aus unserer Sicht verbindliche Aussagen zur Finanzierung. Digitalisierung besteht nicht nur aus einer einmaligen Anschaffung. Einrichtungen brauchen dauerhaft Mittel für Wartung, Software, Cybersicherheit und Schulungen. Wenn man Digitalisierung politisch wirklich will, dann muss man diese Investitionen auch absichern.
„Faxgeräte sind noch immer Alltag“
Trotz aller Digitalgesetze scheint die Realität oft noch sehr analog zu sein?
Absolut. Ich war gerade auf einem Digitalisierungspanel bei dem Pflegekongress „Because we care“ in Augsburg. Auf die Frage in einem Panel, wer noch Faxgeräte nutzt, hoben drei Viertel der Anwesenden die Hand.
Politisch entsteht oft der Eindruck, das Fax sei längst Geschichte. Die Realität sieht anders aus.
Wir erleben ständig Medienbrüche: Daten werden digital erfasst, anschließend ausgedruckt, unterschrieben und wieder per Fax verschickt. Das ist keine echte Digitalisierung. Das ist nur ein analoger Prozess auf einem Bildschirm.
Der elektronische Heilberufsausweis (eHBA) sorgt nicht nur bei den Ärzten und Apothekern, sondern auch in der Pflege weiterhin für Diskussionen. Wie bewerten Sie den aktuellen Stand?
Der eHBA ist grundsätzlich wichtig und notwendig. Wenn Pflegefachkräfte künftig eigenständig E‑Rezepte oder digitale Verordnungen signieren sollen, dann braucht es natürlich auch eine sichere digitale Identität. Dafür ist der elektronische Heilberufsausweis die Grundlage.
Aber die Realität ist noch kompliziert. Die Ausstellung der Heilberufsausweise und Institutionskarten funktioniert vielerorts noch nicht flächendeckend. Viele Einrichtungen berichten über lange Bearbeitungszeiten, komplizierte Antragsverfahren und hohe Kosten. Teilweise dauert die Refinanzierung mehrere Monate, während die Technik schon wieder weiterentwickelt wird.
Digitalisierung darf nicht an Bürokratie scheitern. Wenn Menschen wochen- oder monatelang auf Ausweise, Freischaltungen oder Refinanzierungen warten, entsteht Frust statt Akzeptanz. Der eHBA darf kein zusätzliches Hindernis werden, sondern muss den Arbeitsalltag tatsächlich erleichtern.
Wäre eine verpflichtende Nutzung von Diensten wie KIM (Kommunikation im Medizinwesen) aus Ihrer Sicht sinnvoll?
Ich bin grundsätzlich kein Freund davon, Menschen einfach zu etwas zu verpflichten. Ich möchte überzeugen. Digitalisierung muss in der Praxis funktionieren und erlebbar werden – sonst verliert man die Menschen.
Wenn Pflegekräfte einmal gute digitale Dokumentation nutzen, möchten die meisten nicht mehr mit Kugelschreiber arbeiten. Aber solange am Ende alles wieder ausgedruckt werden muss, verliert man Akzeptanz.
Viele Einrichtungen beklagen hohe Kosten und fehlende Finanzierung.
Das Problem ist real. Digitalisierung kostet Geld – nicht nur einmalig für Hardware und Software, sondern dauerhaft für Wartung, Updates, Cybersicherheit und Support.
Deshalb brauchen wir sichere Finanzierungsmodelle. Investitionskosten müssen refinanziert werden, genauso die laufenden Betriebskosten.
Und ich sage das ganz deutlich: Über die Notwendigkeit der Digitalisierung darf man eigentlich nicht mehr diskutieren. Wenn wir als Gesundheitswesen international mithalten wollen, dann müssen wir investieren.
Das ist ähnlich wie bei Infrastruktur oder Verteidigungspolitik: Man kann diskutieren, wie investiert wird – aber nicht mehr darüber, ob investiert werden soll.
„Die Politik greift in fachliche Entscheidungen ein“
Die aktuellen Überlegungen rund um die Pflegeversicherung sehen Sie kritisch?
Ja, weil hier aus meiner Sicht eine Grenze überschritten wird. Es gibt Überlegungen, die Kriterien für Pflegegrade zu verändern, damit weniger Menschen Leistungen erhalten oder Höherstufungen schwieriger werden. Damit greift Politik unmittelbar in fachliche Bewertungen ein.
Stellen Sie sich vor, man würde Ärzten vorschreiben, bestimmte Diagnosen nicht mehr zu stellen, weil die Therapien zu teuer sind. Da gäbe es einen Aufschrei durchs ganze Land. In der Pflege scheint man so etwas eher zu akzeptieren. Das halte ich für falsch.
Welche Folgen hätte das konkret?
Natürlich würde es Einschränkungen für Versicherte geben. Aber mir geht es vor allem um die grundsätzliche Frage: Wird Pflegebedürftigkeit fachlich bewertet oder nach Kassenlage? Wenn finanzielle Erwägungen die fachliche Einschätzung bestimmen, dann haben wir ein Problem.
Warum gelingt es der Pflege bislang nicht, politischen Druck ähnlich stark aufzubauen wie etwa Ärzteverbände?
Weil die Strukturen völlig unterschiedlich sind. Ärzte verfügen seit Jahrzehnten über starke Kammern, Hauptamtliche und große Verwaltungsapparate.
In der Pflege läuft extrem viel über Ehrenamt. Viele engagieren sich neben ihrer eigentlichen Arbeit. Dafür leisten die Beteiligten Erstaunliches – aber natürlich kann man unter solchen Bedingungen schwieriger dauerhaft politischen Druck organisieren.
Trotzdem hat die Pflege in den vergangenen Jahren enorm viel erreicht. Vor 20 Jahren wären viele dieser Diskussionen noch undenkbar gewesen.
Klingt trotzdem nach einem langen Weg.
Natürlich. Andere Professionen hatten dafür hundert Jahre Zeit. Die Pflege holt viele Entwicklungen jetzt in wenigen Jahrzehnten nach. Aber wir sind da. Wir werden sichtbarer. Wir werden gefragt. Und wir werden uns weiter einmischen.
(mack)
Künstliche Intelligenz
Bit-Rauschen: Riesige KI-Chips und winzige fürs In-Memory-Computing
Den Höhenflug der Intel-Aktie erwähnte schon die vergangene Ausgabe dieser Kolumne. Danach stieg der Kurs auf Rekordwerte, obwohl Intel fürs erste Quartal 2026 einen erheblichen Nettoverlust von 3,7 Milliarden US-Dollar meldete. Im englischen Börsenjargon war von einem Blowout-Quartal die Rede: Intel schrieb hohe Kosten für die Umstrukturierung ab. Damit entsorgt das Unternehmen Altlasten und verspricht fürs laufende zweite Quartal ein kleines Plus. Obendrein erzielte Intel 7 Prozent mehr Umsatz als erwartet.
Außerdem befeuern eine erweiterte Kooperation mit Google sowie mit dem Terafab-Projekt von Elon Musk die Fantasie der Börsenspekulanten. Musk plant, wie ebenfalls bereits berichtet, gigantische Chipfabriken, für die er Know-how unter anderem von Intel zukaufen will. Nun wurde bekannt, dass Musk die ersten Fabs in Texas bauen will, dicht bei der Tesla-Gigafab in der Nähe des Flughafens Austin. Laut der Terafab-Website sind die Abermillionen Chips für die Musk-Firmen Tesla, xAI und SpaceX gedacht. Außer in autonomen Autos und humanoiden Robotern sollen Terafab-Halbleiter auch in KI-Rechenzentren im Weltall landen. Der erste Satellit mit dem Chip „D3“ heißt AI Sat Mini, ist wegen der Solarpanele aber rund 170 Meter lang und soll 100 Kilowatt Rechenleistung in einer Erdumlaufbahn bereitstellen.

Während diese Pläne in fernerer Zukunft liegen, gibt es spannende KI-Chips, die bereits fertig sind. Beispielsweise kommt das sogenannte In-Memory-Computing aus der Theorie in der Praxis an, nämlich in Form winziger und energiesparender Chips von Firmen wie Anker und Syntiant. Mit den beiden KI-Beschleunigern der achten TPU-Generation hat Google erstmals unterschiedliche Chips für das Pre-Training (TPU 8t) sowie das Inferencing (TPU 8i) generativer KI-Modelle entwickelt. Außerdem setzt Google gerüchtehalber auf unterschiedliche Entwicklungspartner, nämlich außer auf Broadcom nun auch auf MediaTek aus Taiwan.
Das war die Leseprobe unseres heise-Plus-Artikels „Bit-Rauschen: Riesige KI-Chips und winzige fürs In-Memory-Computing“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
