Connect with us

Künstliche Intelligenz

Chatbot für Schulen: Bremen macht den Anfang


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz im Bildungsbereich – das klingt nach einem heißen Eisen. Besonders der unstillbare Datenhunger der großen LLM-Anbieter nach Trainingsmaterial steht dem Gebrauch der großen bekannten Modelle in Schulen auf dem ersten Blick im Wege. Ein eigener KI-Chatbot namens „Telli“ soll es jetzt aber richten. Bremen führt diesen als erstes Bundesland in Deutschland ein, wie die Senatorin für Kinder und Bildung mitteilte. Später einmal soll er in Schulen bundesweit zum Einsatz kommen.

Der Chatbot ist Teil des länderübergreifenden Projekts „Adaptives Intelligentes System“ (AIS) und soll Lehrkräften sowie Schülerinnen und Schülern einen geschützten Zugang zu generativer KI ermöglichen. Telli unterscheidet sich dabei von kommerziellen KI-Diensten durch seinen Datenschutzansatz. Das System arbeite ausschließlich mit pseudonymisierten Nutzerdaten und werde vollständig innerhalb der Europäischen Union gehostet, heißt es seitens der zuständigen Behörden. Dadurch sollen keine personenbezogenen Daten an US-amerikanische oder andere Unternehmen aus dem KI-Sektor übermittelt werden. Die eingegebenen Daten fließen auch nicht in das Training der zugrundeliegenden Modelle ein.

„Wir wollen Schülerinnen und Schüler auf eine Zukunft vorbereiten, in der der Umgang mit Künstlicher Intelligenz selbstverständlich sein wird“, erklärt Sascha Aulepp, Bremens Senatorin für Kinder und Bildung. „Dafür brauchen sie Orientierung, Kompetenz – und Räume, in denen sie KI verantwortungsvoll erproben können.“ Der Chatbot steht künftig an allen öffentlichen Schulen im Bundesland zur Verfügung.

Technisch basiert Telli auf einer Open-Source-Architektur, die seit November 2024 entwickelt wird. Die Plattform fungiert als Zwischenschicht zwischen verschiedenen Large Language Models (LLMs), darunter auch Modelle von OpenAI und Meta, und den Endnutzern. Lehrkräfte können eigene Dokumente hochladen, um kontextspezifische Antworten zu erhalten, und fachdidaktische Lernszenarien erstellen, die sich per QR-Code oder Link mit Schülerinnen und Schülern teilen lassen.

Telli wurde speziell für den Einsatz im Unterricht entwickelt. Lehrkräfte können den KI-Chatbot sowohl zur Unterrichtsvorbereitung als auch im Unterricht selbst nutzen. Darüber hinaus haben sie die Möglichkeit, Telli für ihre Schülerinnen und Schüler freizugeben.

Die Anbindung an das schulische Identity-Management-System VIDIS (Vernetzungsinfrastruktur Digitale Identitäten für Schulen) ermöglicht eine nahtlose Integration in die bestehende IT-Infrastruktur der Schulen. Nutzer können sich ohne zusätzliche Registrierung anmelden.

Das Telli-Projekt ist eingebettet in das größere AIS-Vorhaben, das vom FWU (Institut für Film und Bild in Wissenschaft und Unterricht) koordiniert wird. Alle 16 Bundesländer sind an dem Projekt beteiligt.

Das AIS-System soll künftig eine umfassende digitale Lernumgebung bereitstellen, die weit über den Chatbot hinausgeht. Geplant sind adaptive Lernmaterialien, ein intelligentes Empfehlungssystem und Tutorfunktionen, die Schüler individuell unterstützen und Lehrkräfte entlasten sollen. Das System wird auch kommerzielle Bildungsmedien-Anbieter einbinden können – ein „Marktplatz“ für lizenzpflichtige Inhalte ist vorgesehen.

Die technische Umsetzung berücksichtigt die unterschiedlichen Anforderungen der Länder. Konfigurationsmöglichkeiten sollen es ermöglichen, dass Bundesländer eigene oder selbst beschaffte LLMs nutzen können. Schulträger und Länder können den Code einsehen und bei Bedarf anpassen. Dies soll unter anderem die Abhängigkeit von einzelnen Anbietern reduzieren.


(mki)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Prompte Neuerungen: Was Apple Intelligence in iOS 26 kann | Mac & i-Podcast


Sprachmodelle und generative KI-Funktionen, aber bloß kein Chatbot: Mit iOS 26 & Co startet Apple Intelligence in das zweite Jahr. Das Grundkonzept bleibt gleich: Neben einem kleinen KI-Modell, das direkt auf die Geräte geladen wird, setzt Apple auch ein etwas größeres hauseigenes Modell in der Cloud – sowie immer mehr auf ChatGPT. Die Liste der neuen Apple-Intelligence-Funktionen ist überschaubar, doch im Unterbau passiert vieles.

In Episode 100 bewerten Malte Kirchner und Leo Becker die konkreten KI-Neuerungen in Apples 26er-Systemen – von Live-Übersetzungen über den „Workout Buddy“ bis zu Image Playground mit ChatGPT-Support. Uns beschäftigen auch Apples weiterentwickelte Foundation Models sowie die spannende Option, die KI-Modelle in Kurzbefehle und Automationen zu integrieren. Für Diskussionsstoff sorgen die fehlenden Siri-Verbesserungen, Spekulationen über den Kauf von Perplexity sowie Apples kritisches Paper zu Reasoning-Modellen, das wie eine Bombe in der KI-Branche einschlug.

Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio oder Video) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.

Zum Ansehen oder Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio oder Video) und bei Spotify. Auf YouTube erscheinen neue Videos der Aufzeichnung im Kanal von Mac & i. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de.


(lbe)



Source link

Weiterlesen

Künstliche Intelligenz

Kognitive Roboter: Vodafone soll 5G für Neura Robotics liefern


Die kognitiven Roboter von Neura Robotics greifen bei ihrer Funktionsweise auch auf eine Cloud zu – deswegen hat das schwäbische Start-up nun eine Partnerschaft mit dem Telekommunikationskonzern Vodafone geschlossen. Er soll die nötige 5G-Infrastruktur liefern.

Humanoiden oder kognitive Roboter, wie sie im Zusammenhang mit Neura Robotics häufig genannt werden, sollen in der Zukunft Jobs von Menschen übernehmen können – zum Beispiel in der Industrie, der Pflege oder im Haushalt.

Damit die Roboter von Neura Robotics solche Aufgaben erfüllen können, müssen sie ihre Umgebung erfassen, wie Vodafone in einer Pressemitteilung erläutert. Deshalb seien sie mit zahlreichen Sensoren ausgestattet. Die riesigen Datensätze, die dabei entstehen, müssten möglichst schnell und sicher transportiert und verarbeitet werden. Vodafones 5G-Module, die in den Robotern verbaut werden, sollen das in Zukunft ermöglichen. Vodafone und Neura Robotics starten deshalb jetzt eine Technologie-Partnerschaft.

Zwei Dinge sind für einen Humanoiden besonders charakteristisch: Zum einen das menschenähnliche Erscheinungsbild mit Armen und Beinen, zum anderen das KI-Modell, an das die Roboter häufig angebunden sind, um erfasste Informationen zu verarbeiten und das gebotene Vorgehen für ihre jeweilige Aufgabe abzurufen.

Das Humanoiden-Flaggschiff von Neura Robotics ist der „4NE1“, dessen dritte Generation das Unternehmen jetzt auch auf der Automatica in München, einer Fachmesse für Automation und Robotik vorstellte.

Aus Sicht von Daniel Reger, CEO von Neura Robotics, liegt die aktuelle große Herausforderung bei der Entwicklung leistungsfähiger Humanoiden darin, ihre kognitiven Fähigkeiten für die jeweiligen Einsatzzwecke zu trainieren, wie er kürzlich im Interview mit MIT Technology Review verdeutlichte. „Um diesen Markt zu erobern und überhaupt zu ermöglichen, ist es wichtig, sich auf die End-Effektoren – also quasi die Hände – und auf den Oberkörper des Roboters zu fokussieren. Denn damit erbringen Roboter die wertschöpfende Arbeit“, sagte Regner hier. Der Roboter müsse kognitiv werden – ein Gehirn besitzen, das eigene Entscheidungen trifft, damit er sich in verschiedenen Umgebungen autonom bewegen und Aufgaben lösen kann.

Neura Robotics arbeitet bereits länger an entsprechenden KI-Modellen – auch hier dürften die 5G-Module von Vodafone eine entscheidende Rolle spielen, wenn es darum geht, die Sensordaten des Roboters in eine Cloud zu laden und weiterzuverarbeiten. Das dürfte zum einen für die KI-gestützte Funktionsweise der Humanoiden unerlässlich sein, zum anderen dürften die Daten auch wertvolles potenzielles Trainingsmaterial für Neura Robotics darstellen. Wie genau die mit Vodafone übermittelten Daten von Neura Robotics verarbeitet werden, darüber macht Vodafone in seiner Pressemitteilung jedoch keine Angaben. Auch über etwaige Verschlüsselung der Daten ist hier nichts zu lesen.

Vodafone und Neura Robotics wollen die Humanoiden mit ihrer Partnerschaft sowohl für den Industrie- als auch auf Privatbereich fit machen. Hagen Rickmann, Geschäftsführer Firmenkunden bei Vodafone, hält die Einsatzzwecke von menschenähnlichen Robotern für „deutlich größer, als wir sie bislang erleben.“ Sie könnten an noch viel mehr Stellen im Alltag unterstützen, wenn wir sie mit modernster Technik wie Echtzeit-Mobilfunk ausgestattet seien – „in den Fabrikhallen, in unseren Krankenhäusern, aber auch in den heimischen vier Wänden“.

Aus Sicht von Reger braucht es mehr als nur fortschrittliche KI damit kognitive, humanoide Roboter ihr volles Potenzial entfalten können. „Es braucht eine belastbare, intelligente Infrastruktur“, so Reger in der Vodafone-Pressemitteilung.

Wofür genau diese Infrastruktur dienen könnte, machte er auch im Interview mit MIT Technology Review klar: „Wenn man alles selbst macht und ein großes Modell trainiert, dann stößt man immer irgendwann auf ein Problem, für dessen Lösung eine Fähigkeit oder zwei oder drei fehlen – und man trainiert dann wieder neu. Das ist viel zu komplex, viel zu kostenintensiv und total ineffizient.“

Stattdessen setze Neura auf ein drei selbst definierte „Prozess-Level“: „Wir haben eine Cloud-Lösung, die sich aus diesen verschiedenen Prozess-Layern die richtigen Informationen holt. So kann jeder auf der Welt an den Funktionalitäten, an den Skills der Roboter, arbeiten, sie nutzen und Apps daraus entwickeln.“


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Alphagenome: Deepmind KI analysiert Auswirkungen von DNA-Veränderungen


Als Wissenschaftler 2003 zum ersten Mal das menschliche Genom sequenzierten, enthüllten sie den vollständigen Satz von DNA-Anweisungen, die einen Menschen ausmachen. Damals war noch nicht klar, was all die drei Milliarden genetischen Buchstaben genau tun.

Mit Alphagenome hat Google Deepmind jetzt nach eigenen Angaben einen großen Schritt zum Verständnis des genetischen Codes gemacht. Alphagenome ist ein KI-Modell, das vorhersagt, welche Auswirkungen kleine Veränderungen in der DNA auf eine Reihe von molekularen Prozessen haben: zum Beispiel, ob ein Gen öfter oder seltener abgelesen wird. Genau solche Fragen sind es, die Biologinnen und Biologen regelmäßig in Laborexperimenten zu beantworten versuchen.

„Wir haben zum ersten Mal ein einziges Modell geschaffen, das die vielen verschiedenen Herausforderungen vereint, die mit dem Verständnis des Genoms verbunden sind“, sagt Pushmeet Kohli, Deepminds Vizepräsident für Forschung.

Vor fünf Jahren veröffentlichte die KI-Abteilung von Google Alphafold, eine Technologie zur Vorhersage der 3D-Form von Proteinen. Diese Arbeit wurde im vergangenen Jahr mit dem Nobelpreis ausgezeichnet. Sie legte außerdem die Basis für die Ausgründung des wirkstoffentwickelnden Unternehmens Isomorphic Labs und auch für einen Boom von Unternehmen, die hoffen, dass KI in der Lage sein wird, neue Medikamente vorzuschlagen.

Alphagenome ist jetzt ein Versuch, die Arbeit der Biologinnen und Biologen zu verbessern. Es soll helfen, grundlegende Fragen zu beantworten, wie die Veränderung von DNA-Buchstaben die Genaktivität beeinflusst und wie sich genetische Mutationen letztendlich auf unsere Gesundheit auswirken.

„Wir haben diese drei Milliarden Buchstaben der DNA, aus denen ein menschliches Genom besteht, aber jeder Mensch ist etwas anders, und wir verstehen nicht ganz, was diese Unterschiede bewirken“, sagt Caleb Lareau, der als computationaler Biologe am Memorial Sloan Kettering Cancer Center, der schon früh Zugang zu Alphagenome hatte. „Dies ist das bisher leistungsfähigste Werkzeug, um das zu modellieren.“

Von Google heißt es, dass Alphagenome für nicht-kommerzielle Nutzer kostenlos sein wird. Des Weiteren sollen alle Details des Modells in Zukunft veröffentlicht werden. Laut Kohli prüft das Unternehmen Optionen, um „die Nutzung dieses Modells durch kommerzielle Einrichtungen“, wie Biotech-Unternehmen, zu ermöglichen.

Lareau zufolge werden mit Alphagenome bestimmte bisher im Labor durchgeführte Experimente künftig virtuell am Computer durchführbar. Bei Untersuchungen von Menschen, die ihre DNA für Forschungszwecke gespendet haben, werden beispielsweise oft Tausende von genetischen Unterschieden festgestellt, von denen jeder die Wahrscheinlichkeit, dass eine Person an einer Krankheit wie Alzheimer erkrankt, leicht erhöht oder verringert.

Lareau sagt, dass die Software von Deepmind verwendet werden könnte, um schnell Vorhersagen darüber zu treffen, wie jede dieser Varianten auf molekularer Ebene funktioniert, was ansonsten zeitaufwändige Laborexperimente erfordern würde. „Man erhält diese Liste von Genvarianten, aber dann möchte ich verstehen, welche davon tatsächlich etwas bewirken, und wo kann ich eingreifen“, sagt er. „Dieses System bringt uns näher an eine gute erste Vermutung darüber, was eine Variante bewirkt, wenn wir sie bei einem Menschen beobachten.“

Man darf allerdings nicht erwarten, dass Alphagenome über einzelne Personen sehr viel vorhersagen kann. Es bietet zwar Anhaltspunkte für die molekularen Details der Genaktivität, aber keine 23andme-ähnlichen Offenbarungen über die Eigenschaften oder die Abstammung einer Person.

„Wir haben Alphagenome nicht für die Vorhersage des persönlichen Genoms entwickelt oder validiert, eine bekannte Herausforderung für KI-Modelle“, heißt es in einer Google-Erklärung. Das KI-System basiert auf der sogenannten Transformer-Architektur, die bei Google entwickelt wurde und auch große Sprachmodelle wie GPT-4 antreibt. Dieses Modell wurde auf Unmengen von experimentellen Daten trainiert, die von öffentlichen wissenschaftlichen Projekten stammen.

Laut Lareau wird das System die tägliche Arbeit seines Labors nicht grundlegend verändern, könnte aber neue Arten der Forschung ermöglichen. Zum Beispiel stoßen Ärzte manchmal auf Patienten mit sehr seltenen Krebsarten, die mit unbekannten Mutationen behaftet sind. Alphagenome könnte Aufschluss darüber geben, welche dieser Mutationen das eigentliche Problem verursachen, und so möglicherweise einen Hinweis auf eine Behandlung geben.

„Ein Kennzeichen von Krebs ist, dass bestimmte Mutationen in der DNA dazu führen, dass die falschen Gene im falschen Kontext exprimiert werden“, sagt Julien Gagneur, Professor für Computermedizin an der Technischen Universität München. „Diese Art von Instrumenten hilft uns dabei, herauszufinden, welche Mutationen die richtige Genexpression stören.“

Der gleiche Ansatz könnte für Patienten mit seltenen genetischen Krankheiten gelten, von denen viele nie erfahren, woher ihre Krankheit kommt, selbst wenn ihre DNA entschlüsselt wurde. „Wir können ihre Genome vorliegen haben, aber wir wissen nicht, welche genetischen Veränderungen die Krankheit verursachen“, sagt Gagneur. Seiner Meinung nach könnte Alphagenome Medizinern einen neuen Weg zur Diagnose solcher Fälle eröffnen.

Einige Forscher streben an, mithilfe der KI ganze Genome von Grund auf neu zu entwerfen und neue Lebensformen zu schaffen. Andere denken, dass die Modelle dazu dienen werden, ein vollständig virtuelles Labor für Medikamentenstudien zu schaffen. „Mein Traum wäre es, eine virtuelle Zelle zu simulieren“, sagte Demis Hassabis, CEO von Google DeepMind, dieses Jahr.

Kohli nennt Alphagenome einen „Meilenstein“ auf dem Weg zu einem solchen System. „Alphagenome wird vielleicht nicht die ganze Zelle in ihrer Gesamtheit modellieren … aber es beginnt, Licht auf die breitere Semantik der DNA zu werfen.“

Dieser Beitrag ist zuerst bei t3n.de erschienen.


(jle)



Source link

Weiterlesen

Beliebt