Künstliche Intelligenz
Verfassungsbeschwerde gegen DNA-Probe zur künftigen Strafverfolgung erfolgreich
Das Bundesverfassungsgericht hat Wegweiser zur klaren Durchsetzung bestehender Grundrechtsgarantien bei der Strafverfolgung mithilfe von DNA-Proben aufgestellt. Es betont in einem am Mittwoch veröffentlichten Urteil vom 12. August: Das Anordnen einer DNA-Entnahme zur Identitätsfeststellung ist ein Eingriff in das Grundrecht auf informationelle Selbstbestimmung. Die Maßnahme muss daher verhältnismäßig sein und auf nachvollziehbar dokumentierten Tatsachen beruhen (Az.: 2 BvR 530/25).
Die Karlsruher Richter rügen zugleich die Fachgerichte deutlich und stellen Weichen für deren Praxis. Sie betonen, dass diese die Bedeutung des Eingriffs durch das Feststellen und Speichern eines DNA-Musters ernst nehmen und sich intensiv mit aktuellen, entlastenden Lebensumständen wie einem Bewährungsverlauf auseinandersetzen müssen.
Beschwerde gegen Negativprognose
In dem Fall legte ein Verdächtiger Verfassungsbeschwerde gegen Entscheidungen insbesondere des Amtsgerichts Hildesheim ein, das die Entnahme und molekulargenetische Untersuchung von Körperzellen zur Feststellung seines DNA-Identifizierungsmusters für künftige Strafverfahren gemäß Paragraf 81g Strafprozessordnung (StPO) angeordnet hatte. Der Beschwerdeführer war zuvor wegen gefährlicher Körperverletzung zu Freiheitsstrafen auf Bewährung verurteilt worden. Es bestand die Annahme, dass künftig erneut Strafverfahren von erheblicher Bedeutung gegen ihn zu führen sein würden (sogenannte Negativprognose).
Der Betroffene hielt diese Prognose des Gerichts für unzureichend begründet. Er forderte die Beachtung seines Grundrechts auf informationelle Selbstbestimmung, die Berücksichtigung seiner aktuellen Lebenssituation und seines beanstandungsfreien Bewährungsverlaufs. Land- und Amtsgericht wiesen die Eingabe zurück und stützten die Negativprognose auf die Art und Ausführung der Gewalttaten sowie die Persönlichkeit des Verurteilten.
Deutliche Ansage aus Karlsruhe
Das Bundesverfassungsgericht nahm die Verfassungsbeschwerde an und gab ihr nun statt. Die angefochtenen Beschlüsse hob es auf und wies die Sache an das Amtsgericht zurück. Laut dem höchstrichterlichen Urteil haben die niederen Instanzen es versäumt, die Bewährungshefte einzubeziehen. Damit seien relevante Umstände wie der aktuelle Bericht des Bewährungshelfers nicht in die Abwägung einbezogen worden. Die Prognose müsse aber auf einer zureichenden Sachaufklärung beruhen.
Schon das Landgericht habe die positive Sozialprognose, die der Strafaussetzung zur Bewährung zugrunde lag, nicht ausreichend gewürdigt, monieren die Karlsruher Richter. Bei gegenläufigen Vorhersagen sei eine erhöhte Begründungstiefe erforderlich. Die Fachgerichte hätten aber keine besonderen Umstände darlegen können, die die Annahme künftiger erheblicher Straftaten trotz des positiven Bewährungsverlaufs rechtfertigten.
Weiterer Vorwurf: Die anordnenden Richter hätten nicht ausreichend berücksichtigt, dass die Anlasstaten bereits knapp vier Jahre zurücklagen und warum die damals verhängten Strafen ausgesetzt wurden. Ein pauschaler Hinweis auf frühere Verurteilungen genüge den verfassungsrechtlichen Anforderungen an die Gefahrenprognose nicht.
Insgesamt wendet der zuständige 2. Senat mit der Entscheidung die strengen verfassungsrechtlichen Maßstäbe in diesem sensiblen Umfeld konsequent an. Er erzwingt zugleich eine qualitativ bessere Auseinandersetzung der Fachgerichte mit der informationellen Selbstbestimmung.
(vbr)
Künstliche Intelligenz
HTC startet globalen XR-Hackathon für Studierende mit Fokus auf WebXR
HTC ruft mit „Viverse Spark“ erstmals einen globalen Hackathon ins Leben. Zielgruppe sind Studierende, die eigene immersive Inhalte auf Basis von WebXR entwickeln. Der Wettbewerb läuft unter Beteiligung von namhaften Hochschulen weltweit.
Kreativität im Browser: WebXR ohne Hürden
Im Zentrum steht die Erstellung interaktiver 3D-Erfahrungen in drei Kategorien: Storytelling, Spiele und soziale Interaktion. Die Einreichungen sollen direkt im browserbasierten Viverse-System umgesetzt werden. HTCs Plattform für immersive Inhalte unterstützt zahlreiche WebXR-Frameworks, darunter Unity WebGL, Godot, ThreeJS, Babylon und AFRAME. Auch Studierende ohne Programmierkenntnisse können teilnehmen: Eine No-Code-Umsetzung ist über das Tool „PlayCanvas“ möglich.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Andranik Aslanyan, verantwortlich für das Wachstum der Plattform, betont, dass Viverse bewusst auf niederschwellige Zugänge setzt: Inhalte sollen auf jedem Gerät laufen, ohne dass spezielle High-end-Hardware nötig ist. „Wir möchten, dass jeder interaktive Inhalte auf den Geräten nutzen kann, zu denen er persönlich Zugang hat“, so Aslanyan. Die Teilnahme am Wettbewerb soll Studierenden zugleich praktische Erfahrung bieten und sie auf künftige Berufe im XR-Bereich vorbereiten.
XR-Hardware und Geldpreise
Auch Hochschulen sehen Potenzial: Dr. Allen Y. Yang, Direktor des FHL Vive Center for Enhanced Reality an der UC Berkeley, erwartet, dass die Beiträge der Studierenden maßgeblich die künftigen Anwendungen von Virtual und Augmented Reality mitgestalten werden. Er spricht von einer „kreativen Generation“, deren Projekte zentrale Impulse für immersive Technologien setzen könnten.
Zu den teilnehmenden Institutionen gehören unter anderem die taiwanesischen Universitäten NTU, NTHU, NUK und STUST, die UC Berkeley, Carnegie Mellon University, die University of Southern California und das Ringling College of Art and Design. Gewinner dürfen sich über Geldpreise von bis zu 5.000 US-Dollar pro Team freuen. Zudem werden insgesamt je 20.000 US-Dollar an drei Institutionen und bis zu 20 HTC Vive Focus Vision XR-Headsets ausgeschüttet.
Wer sich beteiligen möchte oder Informationen zu künftigen Wettbewerben sucht, kann sich über die Veranstaltungswebseite direkt an HTC wenden.
(joe)
Künstliche Intelligenz
Alibabas LLM Qwen3 auf dem nächsten Level
Mit verhältnismäßig geringem Echo ist am 10.9.2025 ein neues Qwen3-Modell erschienen. Die Randdaten klingen unspektakulär: Es hat 80 Milliarden Parameter, von denen jeweils immer drei Milliarden aktiv sind. Doch die Änderungen haben es in sich und könnten eine mögliche Richtung vorgeben, in die sich Sprachmodelle weiterentwickeln.
ist Data Scientist und Machine Learning Architect. Er promovierte in theoretischer Physik und arbeitet seit 20 Jahren im Bereich großer Datenmengen und Künstliche Intelligenz, insbesondere mit Fokus auf skalierbaren Systemen und intelligenten Algorithmen zur Massentextverarbeitung. Seit 2022 ist er Professor an der TH Nürnberg und konzentriert seine Forschung auf die Optimierung von User Experience mithilfe moderner Verfahren. Er ist Gründer der datanizing GmbH, Referent auf Konferenzen und Autor von Artikeln zu Machine Learning und Text Analytics.
Neue Modellarchitektur
Das Qwen-Team identifiziert die Gesamtzahl der Parameter und die Kontextlänge als größte Engpässe sowohl im Training als auch in der Inferenz. Im Vergleich zu den schon länger verfügbaren Qwen3-Modellen gibt es beim neuen Modell vor allem folgende Innovationen:
- Hybrider Attention-Mechanismus
- Schlanke Mixture-of-Experts-Struktur
- Trainingsoptimierungen
- Vorhersage mehrerer Token
(Bild: Golden Sikorka/Shutterstock)
Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.
Hybrider Attention-Mechanismus: Das neue Modell wendet in 75 Prozent der Layer eine Form der sogenannten linearen Attention (Gated DeltaNet) an, die wesentlich weniger Speicher und Rechenzeit benötigt. Die übrigen Layer arbeiten nach dem Standard-Attention-Mechanismus. Im Blog kann man nachlesen, dass diese hybride Architektur bessere Ergebnisse erzielt, als in allen Layern den gleichen Attention-Mechanismus zu verwenden. Diese Änderung führt dazu, dass man das Modell nicht mehr als reine Transformer-Architektur bezeichnen kann.
Schlanke Mixture-of-Experts-Struktur: Mixture-of-Experts-Modelle (MoE) verwenden immer nur einen Teil der Parameter und können damit Token schneller vorhersagen. MoE-Modelle gibt es schon einige Jahre, und Innovationen setzte vor allem DeepSeek mit seiner V3-Architektur um. Sie bietet deutlich mehr Experten: 256 statt der üblichen acht, jedoch sind immer nur acht gleichzeitig aktiv. Von den 671 Milliarden Parametern sind damit bei jeder Vorhersage nur 37 Milliarden erforderlich. Qwen3-Next geht hier noch weiter und arbeitet bei „lediglich“ 80 Milliarden Parametern mit ganzen 512 Experten, von denen immer zehn befragt werden. So benötigt jede Vorhersage nur drei Milliarden Parameter.
Trainingsoptimierungen: Das Training großer Sprachmodelle ist enorm aufwendig und dauert Hunderte GPU-Jahre. Daher legen Data Scientists großes Augenmerk darauf, diesen Prozess möglichst gut zu optimieren. Während etwa Moonshot.ai den Muon-Optimizer verwendet, nutzt das Schweizer Apertus-Modell Goldfish Loss, um das Training effizienter zu gestalten. Qwen3-Next hat dafür gleich mehrere, andere Optimierungen parat. Zunächst hilft auch hier der hybride Attention-Mechanismus, aber die Entwickler nutzen darüber hinaus eine nullzentrierte RMS-Norm (Root Mean Square) für die Layer-Gewichte, weil die bisher verwendete QK-Norm (Query-Key) explodierte. Zusätzlich implementieren sie ein nicht näher definiertes Verfahren, das alle MoE-Experten unvoreingenommen mit Trainingsdaten versorgt. Möglicherweise kommt hier das von DeepSeek veröffentlichte Verfahren Auxiliary-Loss-Free zum Einsatz, aber die Qwen-Autoren schweigen sich zu Details aus.
Vorhersage mehrerer Token: Mit der Mehrfachvorhersage haben schon einige Modelle experimentiert, bisher aber vor allem als Optimierung im Trainingsprozess. Auch hier geht Qwen3-Next einen Schritt weiter und lässt die Vorhersage im Inferenzmodus zu. Da die vorhergesagten Token nicht immer richtig sind, heißt das Verfahren auch Speculative Decoding. Was bisher nur mit Tricks und der Kombination kleiner und großer Modelle möglich war, bietet Qwen3-Next direkt.
Das Qwen-Team behauptet, dass es das Modell durch diese Optimierungen mit lediglich 80 Prozent des Aufwands für das deutlich kleinere Qwen3-30B-A3B trainieren konnte. Im Vergleich zum dichten Qwen3-32B bedeutet das demnach weniger als zehn Prozent des Aufwands. Die Optimierungen helfen auch in der Inferenzphase: Besonders bei langen Kontexten ist das Modell deutlich schneller als vergleichbar große Modelle.
Qwen3-Next in der Praxis
Das neue Modell auszuprobieren, ist nicht so einfach, denn die stark veränderte Architektur führt zu Problemen mit dem beliebten Tool llama.cpp, das wohl bis auf Weiteres nicht damit zusammenarbeitet. Besser sieht es mit der Transformers-Bibliothek aus, und auch vLLM arbeitet mit Qwen3-Next und überraschenderweise auch für das von Apple bereitgestellte MLX-Framework.
Die Ausführung funktioniert am zuverlässigsten mit Quantisierung, also reduzierter Genauigkeit zugunsten des Speicherbedarfs, weil die Modelle sonst mehr als 160 GByte RAM benötigen. Auf runpod.io kann man sich beispielsweise eine RTX 6000 Pro mit 96 GByte VRAM für knapp zwei Euro pro Stunde mieten und zumindest mit dem AWQ-Modell (Activation-aware Weight Quantization for LLM Compression and Acceleration) herumspielen. Gleiches gilt für Apple-Hardware, auf der es mindestens 64 GByte RAM sein sollten. Alternativ kann man OpenRouter nutzen, wo das Modell bei unterschiedlichen Providern zur Verfügung steht.
Qwen3-Next-Thinking kennt den Heise Verlag gut, auch wenn es keine Zeitschrift mit dem Titel Security Intelligence gibt und 1949 auch noch keine Elektrotechnik-Zeitschriften im Programm waren.
Die Antwort von Qwen3-Next-Instruct ist ähnlich. Das Reasoning bringt dabei also kaum Verbesserungen. Insgesamt ist das Instruct-Modell auf lmarena.ai und livebench.ai etwas besser bewertet. Die deutsche Variante der Strawberry-Challenge mit der Frage nach der Anzahl der „e“ in Erdbeere kann das Instruct-Modell nach anfänglich falschem Raten richtig beantworten:
Das Modell korrigiert sich, kommt aber auf das richtige Ergebnis bei der deutschen Strawberry-Challenge.
Qwen3-Next ist bei politischen Fragen äußerst restriktiv. Nur mit Mühe kann man ihm (vor allem in quantisierten Modellen) etwas dazu entlocken. Bei der Ausgabe ist der wiederholte Hinweis spannend, dass das Modell zu dem Thema nichts sagen darf. Das sieht fast danach aus, als ob sich das Modell verplappert hätte, sich dann aber wieder auf die indoktrinierten Texte einstellt:
Bei der Erläuterung der Tiananmen-Unruhen sind vor allem die zusätzlichen Hinweise spannend.
Das Modell arbeitet äußerst schnell. Mit dem (wenig effizienten) AWQ kann man auf einer RTX 6000 Pro etwa 20 Token pro Sekunde erreichen, das 4-Bit-quantisierte Modell schafft auf einem M2 Ultra fast 50 Token pro Sekunde, bei OpenRouter ist es mit knapp 150 Token pro Sekunde gelistet. Das ist für ein solches Modell beachtlich.
Künstliche Intelligenz
„Saros“: Housemarque kündigt neues Roguelite-Spiel an
„Saros“ mach da weiter, wo „Returnal“ aufgehört hat: Das Studio Housemarque hat sein neues Spiel angekündigt. Es wird erneut ein Action-Spiel aus der Third-Person-Perspektive, das auf einem fremdartigen Planeten spielt. Wie „Returnal“ hat „Saros“ Rogue-ähnliche Elemente: Geht ein Spieldurchlauf schief, darf man einfach wieder von vorn anfangen – und bis man zum Ende kommt, sind wohl einige Versuche nötig. Das regelmäßige Scheitern ist eingepreist.
„Saros“ soll 2026 für die Playstation 5 erscheinen, einen genaueren Release-Termin gibt es noch nicht. Eine PC-Fassung ist bislang nicht angekündigt, wie der Vorgänger könnte „Saros“ aber mit etwas Verzögerung auf den Rechner kommen. „Returnal“ wurde Anfang 2024 auf den PC portiert. In der Regel dauerte es zuletzt etwa ein bis zwei Jahre, bis Playstation-Spiele ihren Weg auf den PC fanden.
Das neue Spiel von Housemarque spielt auf einem Planeten namens Carcosa, der sich mit jedem Ableben der Spielfigur Arjun Devraj ändert. Bei „Saros“ soll es im Vergleich zu „Returnal“ mehr permanenten Fortschritt zwischen den einzelnen Spieldurchläufen geben. Im ersten Trailer ist unter anderem zu sehen, wie Devraj nach dem ersten Ableben eine zweite Chance bekommt – ein freischaltbarer Bonus, der für alle künftigen Runs gilt.
„Returnal“ überzeugte Sony vom Kauf
Housemarque ist ein finnisches Unternehmen mit Sitz in Helsinki. Der große Durchbruch gelang dem Team mit „Returnal“, das 2021 exklusiv für die Playstation auf den Markt kam. Schon davor hatte Housemarque sieben Titel exklusiv auf die Sony-Konsole gebracht.
Wenige Monate nach dem Release von „Returnal“ entschied sich Sony dazu, die langjährige Partnerschaft zu festigen und Housemarque zu kaufen. Die Summe für die Übernahme wurde nicht bekannt. „Saros“ ist der erste Titel von Housemarque, seit das Team zu Sony gehört.
(dahe)
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 4 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 1 Monat
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 3 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Woche
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier