Künstliche Intelligenz

Apertus: Schweiz stellt erstes offenes und mehrsprachiges KI-Modell vor


Mit einem eigenen offenen Large Language Model (LLM) will die Schweiz einen Beitrag zur eigenen digitalen Souveränität leisten. Apertus heißt dieses mehrsprachige LLM, das von der ETH Zürich, der EPF Lausanne und dem Supercomputerzentrum CSCS (Schweizerisches Nationales Supercomputing-Zentrum) in Lugano entwickelt wurde. Es ist in zwei Größen verfügbar, wobei die kleinere auch für Privatanwender leicht einsetzbar ist.

Mehr als 1000 Sprachen seien im Trainingsmaterial vertreten, darunter die aus Schweizer Sicht naheliegenden Sprachen Schweizerdeutsch und Rätoromanisch, die bislang in vielen KI-Modellen unterrepräsentiert sind. Das Datenmaterial umfasst rund 15 Billionen Tokens, etwa 40 Prozent davon sind nicht englisch.

Apertus soll auf dem Niveau von Llama 3 liegen, sagen die beteiligten Wissenschaftler. Damit erregt es vorerst nicht so viel Aufsehen wie etwa das chinesische Modell Deepseek, das vor einiger Zeit die US-amerikanisch dominierte KI-Wirtschaft aufrüttelte.

Die Stärke des Modells soll hingegen in dem liegen, was der lateinische Name suggeriert. Apertus stehe für Offenheit. Architektur, Modellgewichte, Zwischencheckpoints, Trainingsmaterial und vieles mehr sind deshalb frei verfügbar. Das Modell erfülle als erstes großes Modell die Transparenzpflichten des EU AI Act. Es respektiere Opt-out-Requests und entferne persönliche Daten sowie unerwünschte Inhalte vor dem Training, betonen die Macher.

Ein Ziel kann schon mit dem Vorhandensein des Modells abgehakt werden, es ist der Ausbau von KI-Expertise in Forschung, Gesellschaft und Wirtschaft – natürlich ist dies nur ein Anfang, aber Apertus ist nach Vorstellung der Herausgeber eine Art Fundament, auf dem jetzt aufgebaut werden könne. Im September wird es mit einem Hackathon auf den Schweizer AI Weeks erste Kostproben geben, was mit dem Modell möglich ist.

Apertus kann unter anderem auf der Plattform Huggingface heruntergeladen werden. Es existiert als Varianten mit 8 und 70 Milliarden Parametern.


(mki)



Source link

Beliebt

Die mobile Version verlassen