Connect with us

Künstliche Intelligenz

KI-Update Deep-Dive: Wenn der KI-Vorwurf das Studium beendet


Weiterlesen nach der Anzeige

Künstliche Intelligenz ist aus dem Bildungsalltag nicht mehr wegzudenken. Eine aktuelle britische Studie zeigt: Studierende nutzen KI-Tools, um sich Konzepte erklären zu lassen, Material zusammenzufassen oder Ideen zu strukturieren. Doch während die Technologie längst Einzug in Hörsäle und Klassenzimmer gehalten hat, fehlen klare rechtliche Rahmenbedingungen. Die Folge: Ein regelrechter Flickenteppich an Regelungen – mit möglicherweise sogar gravierenden Konsequenzen für Betroffene.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

„Wir haben unseren berühmten Föderalismus und damit einen Flickenteppich“, erklärt Sibylle Schwarz, Gründungspartnerin der Kanzlei elseschwarz in Wiesbaden und auf Beamten- und Bildungsrecht spezialisiert. „Das Bundesland entscheidet, wie das Schulgesetz beziehungsweise das Hochschulgesetz aussieht.“ Während manche Hochschulen KI in Prüfungen pauschal verbieten, schweigen sich andere komplett aus. Selbst innerhalb einer Universität können die Regeln variieren: „Es kann sogar einem Studierenden passieren, dass er gar nicht die Uni wechseln muss, sondern einfach nur seine Vorlesung. […] Der eine Prof verbietet es komplett, ein anderer erlaubt es vielleicht.“

Ende Februar fällte das Verwaltungsgericht in Kassel ein Urteil – das erste dieser Art in Deutschland. Ein Informatikstudent hatte seine Bachelorarbeit eingereicht, doch die Universität Kassel stufte die Arbeit als nicht bestanden ein. Begründung: Der Verdacht auf KI-Nutzung. Zudem wurde eine Wiederholungsprüfung ausgeschlossen. „Der Informatikstudent hat keinen Hochschulabschluss und den kann er auch nicht mehr erreichen“, sagt Schwarz.

Das Verwaltungsgericht bestätigte in seinem Urteil die Auffassung der Universität, dass KI als „fremde Hilfe“ zu werten sei. „Täuschung ist anzunehmen, wenn der Prüfling keine eigenständige Leistung abgegeben hat, sich also fremder Hilfe, der Hilfe eines Dritten oder unzulässiger Hilfsmittel bedient hat“, zitiert Schwarz die gängige Definition. KI werde dabei wie ein „Dritter“ behandelt – ähnlich wie ein Tischnachbar, von dem abgeschrieben wird. Das Verwaltungsgericht hat das Rechtsmittel der Berufung zugelassen.

Doch wie wird ein KI-Einsatz überhaupt nachgewiesen? Die Hochschulen setzen auf KI-Erkennungssoftware, die bekanntermaßen unzuverlässig ist. „Wenn man den KI-Output nimmt und ein bisschen menschlich ändert, dann springt der KI-Detektor nicht mehr an“, erklärt Schwarz. Daher dienen die Ergebnisse solcher Tools oft auch nur als erster Anhaltspunkt. Im nächsten Schritt prüfen Lehrende die Arbeiten manuell – etwa auf ungewöhnliche Formulierungen oder fachfremde Begriffe.

Weiterlesen nach der Anzeige

Die Beweisführung folgt dabei dem Prinzip des „ersten Anscheins“: „Wenn zwei Klassenarbeiten identisch sind, dann guckt man mal, wo haben die beiden Prüflinge denn gesessen, saßen die nebeneinander?“ Doch dieser Ansatz stößt bei KI an Grenzen. Im Fall des Kasseler Studenten ist noch nicht bekannt, wie die Universität den KI-Einsatz konkret nachwies. „Da werden wir die schriftliche Urteilsbegründung abwarten müssen“, sagt Schwarz.

Für Studierende ist die Situation prekär: „Wir haben jetzt März 2026 und wir haben ungefähr sechs Entscheidungen zur Schule als auch Hochschule. In allen hat der Prüfling verloren.“ Die Konsequenzen sind drastisch: Ohne Abschluss drohen schlechtere Jobchancen und existenzielle Nachteile. „Da kratzen wir ziemlich an dem Grundrecht auf freie Berufswahl“, warnt Schwarz.

Aktuell fehlt es an klaren Vorgaben. „Es müsste ausdrücklich formuliert werden, welche KI, welches Tool, vielleicht welchen Nutzungszweck wir eben nicht als Täuschung verstanden wissen wollen“, fordert Schwarz. Statt konkrete einzelne Tools wie ChatGPT zu benennen, plädiert sie für eine Regelung nach Nutzungszwecken: „Recherche, Rechtschreibkorrektur, Übersetzung, Ideenfindung, Lernunterstützung.“ So ließe sich etwa die Nutzung von KI für Übersetzungen oder Rechtschreibprüfungen explizit erlauben – während das Generieren kompletter Texte verboten bliebe.

Ein weiteres Problem sieht die Rechtsexpertin in der Ungleichbehandlung zwischen Lehrenden und Lernenden. „Wenn die Lehrkräfte […] KI-Tools nutzen, dann applaudieren alle. Wenn jetzt aber eine Schülerin oder ein Schüler […] ein solches Sprachmodell zu Hause nutzt, dann ist es Täuschung“, kritisiert Schwarz. Hier fehle ein ganzheitliches Konzept, wie KI sinnvoll in den Bildungsprozess integriert werden kann.

Letztlich liegt die Verantwortung bei der Politik. „Wenn etwas wesentlich für die Verwirklichung der Grundrechte ist, dann muss das das Parlament durch ein Gesetz klären“, betont Schwarz. Doch der Föderalismus erschwert einheitliche Lösungen: „16 Bundesländer, die Schulgesetze machen, 16 Bundesländer, die Hochschulgesetze machen.“ Bis dahin bleibt Studierenden nur, sich möglichst genau zu informieren – und im Zweifel lieber einmal zu viel nachzufragen.

Bis klare Regeln geschaffen sind, bleibt Studierenden nur eines: Transparenz. Wer KI nutzt, sollte dies offen kommunizieren – und sich im Idealfall die Erlaubnis der betreuenden Lehrkraft einholen. Denn eines zeigt der Fall aus Kassel deutlich: Ohne klare Regeln riskieren Studierende nicht nur schlechte Noten, sondern ihren gesamten Bildungsweg.


(igr)



Source link

Künstliche Intelligenz

Android Auto: Mehr Gemini-KI und immersive Navigation kommen


Weiterlesen nach der Anzeige

Im Zuge der Android Show: I/O Edition hat Google viele Neuerungen rund um Android Auto und Android Automotive angekündigt. Nachdem Google im vergangenen Jahr den Wechsel vom Google Assistant zu Gemini verkündete, bringt das diesjährige Update erneut mehr KI ins Auto, allerdings hat Google noch mehr in petto.

Android Auto erhält in diesem Jahr zunächst den Material-3-Expressive-Anstrich, den Google mit Android 16 QPR1 auf Smartphones und Wear-OS-Uhren losgelassen hatte. Dazu gehören neue Schriftarten, flüssigere Animationen und neue Hintergrundbilder.


Android Auto Bildschirm mit Googles Designsprache Materia 3 Experessive

Android Auto Bildschirm mit Googles Designsprache Materia 3 Experessive

Android Auto erhält die Designsprache Material 3 Expressive.

(Bild: Google)

Zudem hat Google Android Auto so konzipiert, dass Nutzerinnen und Nutzer es stärker personalisieren können. Das Update bringt unter anderem Widgets und Google Maps im Vollbildmodus auf das Armaturenbrett. Überdies ist Android Auto endlich so flexibel anpassbar, dass es auf jeden Fahrzeugbildschirm passt – „egal ob es sich um ein ultrabreites Rechteck, einen Kreis oder eine Sonderform handelt“.


Android Auto auf verschiedenen Bildschirmen

Android Auto auf verschiedenen Bildschirmen

Android Auto passt sich nun an verschiedene Bildschirmformen an.

(Bild: Google)

Neu ist Google zufolge auch die Möglichkeit, Verknüpfungen zu den Lieblingskontakten, einen Garagentoröffner, eine Wetterübersicht und vieles mehr auf den Bildschirm zu bringen.

Weiterlesen nach der Anzeige


Screencast: Immersive Navigation in Android Auto

Screencast: Immersive Navigation in Android Auto

Android Auto: Das Update bringt immersive Navigation in Google Maps. Unklar ist, ob sie auch nach Deutschland kommt.

(Bild: Google)

Darüber hinaus hält die Anfang dieses Jahres angekündigte immersive Navigation für Google Maps Einzug ins Auto. Damit lässt sich Kartenmaterial mitsamt Gebäuden, Überführungen und Gelände in einer 3D-Ansicht anzeigen. Laut Google werden mit der Ansicht wichtige Details wie Fahrspuren, Ampeln und Stoppschilder hervorgehoben. Dies soll dabei helfen, einfacher durch schwierige Strecken zu navigieren.

Wie Google erklärt, ist der neue Assistent Gemini in Android Auto mittlerweile weit verbreitet. Künftig könne zudem der im Zuge der Android Show angekündigte proaktive Assistent Gemini Intelligence auch im Auto verwendet werden, sofern das Smartphone über diese Funktion verfüge.

So könne man etwa während der Fahrt das Abendessen bestellen, etwa mit DoorDash. Sage man etwa: „Bestelle meine üblichen Fisch-Tacos bei DoorDash zum Abholen, aber verdoppele die Bestellung“, könne die KI den Befehl ausführen. Der Nutzer muss die Bestellung abschließend bestätigen. Laut Google soll Gemini Intelligence auch in Deutschland verfügbar sein, einen konkreten Zeitraum hat das Unternehmen jedoch noch nicht genannt.

Auch im Entertainment-Bereich schickt Google neue Features ins Rennen: Bei Fahrzeugen mit entsprechender Ausstattung können Inhalte in Full-HD-Auflösung mit 60 fps wiedergegeben werden. Laut Google sind nicht näher spezifizierte Modelle von BMW, Ford, Genesis, Hyundai, Kia, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo dabei.

Zudem sollen Videos beim Beenden des Parkmodus zur Rückkehr in den Fahrmodus nicht einfach unterbrochen werden. Stattdessen wechseln sie künftig nahtlos in einen Audio-Modus – zumindest in Apps, die Hintergrundaudio unterstützen. Für Filme oder Serien sicher nicht sinnvoll, aber für Video-Podcasts. Des Weiteren erhält Android Auto Unterstützung für räumlichen Klang per Dolby Atmos in unterstützten Apps. Laut Unternehmen sind Fahrzeuge von BMW, Genesis, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo an Bord.


Android Auto neue Mediaplayer

Android Auto neue Mediaplayer

Google verpasst Android Auto aktualisierte Mediaplayer.

(Bild: Google)

Zudem frischt Google die Medien-Apps wie YouTube Music und Spotify mit neuen Designs auf. Damit sollen sie im Auto benutzerfreundlicher sein.

Abseits der Android-Auto-Neuerungen ziehen auch in Googles Infotainment-System Android Automotive mit Google-Diensten einige der oben genannten Neuerungen ein. So bringt Google unter anderem die überarbeiteten Medien-Apps und den nahtlosen Übergang von Video zu Audio in Fahrzeuge mit Android Automotive. Zudem soll das Infotainment-System Zugriff auf Konferenz-Apps wie Zoom erhalten.


Android Auto: Gemini erklärt, dass der Fernseher in den Kofferraum passt

Android Auto: Gemini erklärt, dass der Fernseher in den Kofferraum passt

Gemini soll mit dem Android Automotive Update hilfreicher in Sachen Fahrzeugwissen werden.

(Bild: Google)

Google erklärt weiter, dass Apps wie Gemini und Maps in Fahrzeugen mit Google-Play-Integration noch besser funktionieren, da man eng mit den Autoherstellern zusammenarbeite. Damit sei eine tiefere Integration in die Hardware von Fahrzeugen möglich. Daher könne Gemini künftig etwa Fragen beantworten, „die speziell auf Ihr aktuelles Fahrzeug zugeschnitten sind – beispielsweise die Identifizierung einer mysteriösen Kontrollleuchte auf dem Armaturenbrett oder die Auskunft, ob der Fernseher, den Sie abholen möchten, in Ihren Kofferraum passt“.

Ferner soll die immersive Navigation in Google Maps in kompatiblen Fahrzeugen mithilfe der Live-Spurführung präziser sein. Diese funktioniere vollständig im Fahrzeug und analysiere die Straße über die Frontkamera des Fahrzeugs. Die Live-Spurführung erkenne überdies, auf welcher Spur man sich befinde, und könne in Echtzeit Hinweise geben, wann man die Spur wechseln oder abfahren müsse.

Die Updates für Android Auto und für Fahrzeuge mit integriertem Google-System (Android Automotive) sollen im Laufe dieses Jahres freigegeben werden.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

FAQ: So bootet Windows per UEFI


Wenn ein UEFI-PC startet, läuft im Hintergrund mehr ab, als das auf dem Bildschirm angezeigte Hersteller-Logo vermuten lässt. Die Details schildert der Artikel „So bootet Windows per UEFI“, hier liefern wir Antworten zu Fragen aus der Praxis, etwa zu Compatibility Support Module, Architektur, BCDedit-Eigenheiten, UEFI-Variablen und weiteren. Wir liefern auch Hinweise, was Sie besser lassen sollten.

Wenn mein Mainboard eine UEFI-Firmware besitzt, bedeutet das automatisch, dass Windows stets per UEFI bootet?

Nein. Der UEFI-Standard sieht vor, dass die Mainboard-Hersteller ein Compatibility Support Module in die Firmware einbauen können, kurz CSM. Wenn das aktiv ist, verhält sich das UEFI, als sei es ein Legacy-BIOS, und der Bootprozess läuft ganz anders ab.


Das war die Leseprobe unseres heise-Plus-Artikels „FAQ: So bootet Windows per UEFI“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Altes Wissen, neue KI: SAPs Strategie für das autonome Unternehmen


Seine gerade gestartete Kundenveranstaltung Sapphire nutzt SAP, um die insbesondere von der Finanzwelt herbeigesehnte Antwort auf eine KI-geprägte Software-Welt zu präsentieren. Wenig überraschend lautet das Zielbild Autonomous Enterprise, bei dem KI-gestützte Assistenzen Hand in Hand mit dem gewöhnlichen Personal arbeiten und Geschäftsabläufe vollständig „übernehmen“.

Weiterlesen nach der Anzeige

Die neu vorgestellte Autonomous Suite automatisiert die entsprechenden End-to-End-Prozesse. Wie das SAP-Management gerne und häufig betont, stützen sich die Arbeit und Durchführung hierbei auf das seit der SAP-Gründung in über fünfzig Jahren zusammengetragene Kontextwissen zum betrieblichen Geschehen in Unternehmen.

Die technische Grundlage für die neue Suite bildet die gleichfalls neu vorgestellte Business-AI-Plattform. Dabei handelt es sich weniger um eine wirkliche Neuentwicklung, sondern zuvorderst um das Zusammenlegen der Business Technology-Plattform (BTP), Business Data Cloud (BDC) und Business AI (Joule, Joule Agents, AI Foundation) in einer geregelten Umgebung.

Das semantische Herz bildet der Knowledge Graph, an dem SAP gleichfalls schon länger strickt. Dieser liefert den Agenten eine strukturierte Übersicht über alle Geschäftseinheiten, Prozesse und Beziehungen in der gesamten SAP-Landschaft eines Anwenderunternehmens. SAP hat inzwischen eine Reihe von Domänenmodellen erstellt, die anhand von Programmcode, Daten, Metadaten, Geschäftsprozessen, Architekturwissen und Dokumentation trainiert wurden. In Kombination mit Kontextgraphen sollen diese die inhärente Logik und Kontrolllogik der SAP-Anwendungswelt den neuen Agenten und Assistenzen zuführen.

SAP stellt auf der Sapphire mit Joule Work außerdem einen neuen dynamischen Arbeitsbereich vor, der ein absichtsgesteuertes Arbeiten unterstützt. In natürlicher Sprache sollen Anwender hier einfach formulieren, was sie erreichen wollen und den Rest an die KI beziehungsweise den Joule-Assistenten delegieren. Die Assistenten erkennen anhand des Kontexts die Absichten der Nutzer und koordinieren die entsprechenden Agenten im gesamten Unternehmen. Die Work-Umgebung ist interoperabel angelegt, soll also als zentrale Schnittstelle zwischen SAP- und Nicht-SAP-Umgebungen dienen.

Über Joule Work können Nutzer auch auf die Studio-Umgebung zugreifen. Hier lassen sich dann eigene Agenten erstellen, die über das Model Context Protocol (MCP) und das Agent2Agent-Protokolls (A2A) auch auf Tools oder Agenten von Drittanbietern zurückgreifen können.

Weiterlesen nach der Anzeige

Für die Umsetzung agentenbasierter Funktionen verlässt sich SAP nicht allein auf Eigenentwicklungen, sondern greift weiterhin auf die Tools einschlägiger Anbieter zurück, Anthropics Claude beispielsweise wird die Joule-Agenten in den Bereichen Personalwesen, Beschaffung und Lieferkette unterstützen. Mit AWS sind künftig Datenintegrationen möglich, ohne dass zwischen der Athena und BDC Daten hin- und hergeschaufelt werden müssen.

Nvidias OpenShell dient wiederum als vertrauenswürdige, sichere Laufzeitumgebung für Joule Studio, um beliebige Agenten in der SAP Business AI Platform erstellen, bereitstellen und verwalten zu können. Ferner schließen Zukäufe mehrere funktionale Lücken im Angebot. Der Reltio-Kauf etwa soll Daten aus unterschiedlichen Quellen graphenbasiert zu einer konsistenten Sicht auf Stammdaten („Golden Record“) zusammenführen. Die angestrebte Übernahme von Dremio beschleunigt den Weg der BDC, SAP- und Nicht-SAP-Daten in ein Apache-Iceberg-natives Lakehouse.

Die gleichzeitig verkündete Akquisition von Prior Labs, einem Pionier für Tabellarische Foundation Models (TFMs), unterstützt die Entwicklung tabellarischer Grundmodelle für betriebliche Aufgaben. Da Unternehmensanwendungen Daten und Zahlen typischerweise in Tabellen organisieren, mangelt es den großen Sprachmodellen an dieser Stelle buchstäblich am grundlegenden Verständnis. Mit dem RPT (Relational Pretrained Transformer) ist SAP selbst hier bereits seit einigen Monaten mit einem eigenen Produkt unterwegs, das auf Grundlage tabellarischer ABAP-Daten Dinge wie Zahlungsverzögerungen, Upselling-Möglichkeiten et cetera vorhersagt. In der neuen 1.5-Version erhält dieses nun einen Chat-Assistenten, um mithilfe von Fragen in natürlicher Sprache tabellarische Daten und die dahinter liegenden Ergebnisse weitergehend erkunden zu können.

Die großen und kleinen Aktivitäten zahlen alle darauf ein, dass SAP über die Business-AI-Plattform auch in einer KI-geprägten Softwarewelt die Hand auf die zusammengetragene Unternehmens- und Prozess-Expertise hält. Wie es heißt, soll die neu eingeführte Autonomous Suite bereits mehr als 50 domänenspezifische Joule-Assistenten in den Bereichen Finanzen, Lieferkette, Beschaffung, Personalmanagement und Kundenbindung umfassen. Diese automatisieren die entsprechenden End-to-End-Prozesse, indem sie über 200 spezialisierte Agenten koordinieren.

Daneben hat SAP acht autonome Industrie-Lösungen eingeführt, die branchenbezogene Prozesse von Anfang bis Ende abwickeln und dabei deren spezifische Logik sowie regulatorische Anforderungen integrieren. Ein wenig aufgeweicht wird im Übrigen auch SAPs Politik, die KI-Angebote ausschließlich den Anwendern der Cloud-basierten Unternehmensprogramme zukommen zu lassen. Sie sollen künftig auch für Anwender mit traditionellen On-Premises-Plattformen zugänglich sein – vorausgesetzt sie haben mit der Einführung beziehungsweise Überführung ihrer Anwendungen in die Cloud begonnen und mit SAP einen entsprechenden (Rise-)Plan abgeschlossen.


(axk)



Source link

Weiterlesen

Beliebt