Künstliche Intelligenz
Mozilla cq: Stack Overflow für KI-Agenten
Mozilla AI hat mit cq ein Open-Source-Projekt vorgestellt, das als gemeinsame Wissensbasis für KI-Coding-Agenten dienen soll. Der Name leitet sich vom Dialog (colloquy) ab, genauer gesagt einem strukturierten Austausch von Ideen. Das erklärte Ziel: Agenten sollen nicht länger isoliert arbeiten und dabei wiederholt auf dieselben Fehler stoßen, sondern voneinander lernen können.
Weiterlesen nach der Anzeige
Wie Peter Wilson in einem Blogeintrag bei Mozilla erklärt, arbeiten KI-Agenten aktuell stets unabhängig voneinander. Trifft ein Agent auf ein unbekanntes Problem – etwa eine API mit unerwartetem Verhalten oder eine fehlerhafte CI/CD-Konfiguration –, muss er es eigenständig lösen: Code schreiben, Fehler auslösen, diagnostizieren, von vorn beginnen. Stößt ein anderer Agent auf dasselbe Problem, wiederholt sich der gesamte Prozess. Das kostet Token und Rechenleistung.
Verschärft wird die Situation laut Mozilla dadurch, dass die Trainingsdaten der Modelle veralten. Gleichzeitig sind Plattformen wie Stack Overflow, die einst als zentrale Wissensquelle dienten und deren Inhalte in die Trainingsdaten der Modelle einflossen, von einem massiven Nutzerschwund betroffen. Konkret verweist Mozilla auf einen Rückgang von über 200.000 Fragen pro Monat auf dem Höhepunkt 2014 auf unter 4.000 im Dezember 2025.
So funktioniert cq
cq setzt auf einen dezentralen Wissensaustausch: Bevor ein Agent eine unbekannte Aufgabe angeht, fragt er die sogenannten „cq commons“ ab. Hat ein anderer Agent das Problem bereits gelöst, steht die Lösung sofort zur Verfügung. Lernt ein Agent etwas Neues, kann er dieses Wissen zurück in die Datenbank einspeisen. Andere Agenten bestätigen es durch praktische Nutzung oder markieren es als veraltet. Wissen soll so durch Anwendung Vertrauen aufbauen, nicht durch bloße Autorität.
Mozilla verweist in diesem Zusammenhang auf eine Vertrauenslücke: 84 Prozent der Entwickler nutzen demnach KI-Tools oder planen dies, doch 46 Prozent vertrauen der Genauigkeit der Ergebnisse nicht – ein Anstieg gegenüber 31 Prozent im Vorjahr. Wissen, das von mehreren Agenten in unterschiedlichen Codebasen bestätigt wurde, könne hier mehr Gewicht haben als die Einzelantwort eines Modells, so die Hoffnung von Mozilla.
Ein erster funktionsfähiger Prototyp von cq umfasst Plugins für die Coding-Agenten Claude Code und OpenCode. Hinzu kommen ein MCP-Server (Model Context Protocol) für den lokalen Wissensspeicher, eine Team-API zum Teilen innerhalb von Organisationen, eine Benutzeroberfläche für menschliche Überprüfung sowie Container zum Aufsetzen des Gesamtsystems. Die Entwicklung begann nach Angaben von Mozilla erst Anfang März, entsprechend handelt es sich offiziell um einen frühen Proof of Concept.
Weiterlesen nach der Anzeige
Technische Details zu cq finden sich auf der Projektseite auf GitHub.
Offener Standard statt Vendor-Lock-in
Mozilla legt cq ausdrücklich als herstellerunabhängiges Projekt aus. Nicht jeder nutze dieselben Coding-Agenten, und Entwicklern sollte kein bestimmtes Werkzeug vorgeschrieben werden, heißt es im Blogbeitrag. Der bisherige Ansatz, Wissen in Markdown-Dateien innerhalb von Repositories abzulegen, stoße an Grenzen. Stattdessen brauche es ein dynamisches System, das Vertrauen über die Zeit aufbaue.
Peter Wilson verweist explizit darauf, dass sich die Idee mit einem jüngst veröffentlichten Beitrag von KI-Forscher Andrew Ng deckt. Er hatte ebenfalls ein „Stack Overflow für KI-Coding-Agenten“ angeregt. Entsprechend sieht Mozilla darin eine Bestätigung des eigenen Ansatzes und ruft die Entwickler-Community auf, sich an der Gestaltung von cq zu beteiligen.
(fo)
Künstliche Intelligenz
Rechtslage Deepfakes: Es ist kompliziert
Täuschend echt wirkende Filme und Bilder von Personen lassen sich mit Computertechnik immer einfacher erstellen. Die Leistungsfähigkeit allgemein verfügbarer KI-Modelle nimmt rasant zu, die Ergebnisse können sich inzwischen mit echten Filmproduktionen messen. Mit der leichten Verfügbarkeit auf Plattformen wie X nimmt auch der Missbrauch zu.
Weiterlesen nach der Anzeige
Bekannt sind etwa Betrugsversuche, bei denen die Täter KI-Werkzeuge einsetzen. Die sind wegen der Betrugsabsicht der Regel bereits strafbar. Weniger klar ist die Rechtslage bei Missbrauch von Bildern von Privatpersonen, sei es in Kombination mit KI-Elementen oder als reine KI-Produkte, sogenannten Deepfakes.
Debatte über Strafbarkeitslücke
Die Debatte über eine mögliche Strafbarkeitslücke bei pornografischen Deepfakes ist in Deutschland neu entfacht, nachdem die Schauspielerin Collien Fernandes in der vergangenen Woche mit Vorwürfen gegen ihren Ex-Mann Christian Ulmen an die Öffentlichkeit gegangen ist.
Intensiv diskutiert wird dabei unter anderem die Frage, ob KI-Anbieter und Plattformbetreiber stärker in die Pflicht genommen werden müssen. Denn weder die deutsche noch die europäische Rechtslage bieten bislang einen wirksamen Schutz vor derartigen Taten – was jedoch nicht bedeutet, dass Täter nicht dennoch belangt werden könnten. Doch in der Praxis ist das offenbar kaum durchzusetzen.
Bislang sind die verschiedenen Regularien ein buntes Puzzle. Vor allem das Allgemeine Persönlichkeitsrecht steht bislang im Zentrum der rechtlichen Möglichkeiten. Doch der Anspruch auf Entfernung und anschließend Unterlassung weiterer Verbreitung ist in der Praxis gegenüber den Betreibern und Urhebern kaum durchzusetzen, wenn diese von außerhalb des europäischen Rechtsraumes agieren. Zudem ist derjenige, der eine Entfernung verlangt, in der Nachweispflicht.
Die meisten sexualisierten Deepfakes werden nicht unter Klarnamen veröffentlicht – hier eine Auskunft beim Anbieter zu erhalten, wer den Upload vorgenommen hat, scheitert in der Realität ebenfalls regelmäßig. Und auch andere Wege scheiden aus: Zwar kann etwa die Verwendung von urheberrechtlich geschützten Werken ein Rechtsverstoß sein oder auch die Entstellung eines Originalbildes. Doch realistisch sind Ansprüche auf dieser Grundlage kaum durchsetzbar.
Strafrechtliche Lücken bei Deepfakes
Weiterlesen nach der Anzeige
Das Land Bayern hatte 2024 deshalb über den Bundesrat einen Regelungsvorschlag für einen neuen Paragrafen 201b im Strafgesetzbuch eingebracht: „Verletzung von Persönlichkeitsrechten durch digitale Fälschung.“ Systematisch würde der sich an den Regelungsgehalt des §201a anschließen, die mit Freiheits- oder Geldstrafe belegte „Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen“. Genau hier will wohl auch das Bundesjustizministerium (BMJV) mit seinem erwarteten Vorschlag ansetzen.
Der bayrische Vorschlag von 2024 betraf das Zugänglichmachen „mit computertechnischen Mitteln hergestellter oder veränderter Medieninhalte“, wenn sie den Anschein von „wirklichkeitsgetreuen Bild- oder Tonaufnahmen“ erweckten. Diese Definition war sehr weit gefasst und dürfte in der nun anstehenden Formulierung des BMJV nicht wiederholt werden.
Ein Problem bliebe auch: Die Erstellung als solche wäre weiterhin nicht strafrechtlich bewehrt. Denn die Strafbarkeit würde erst aus der Verbreitung entstehen – etwa einem Versand per Messenger oder dem Upload auf Plattformen. Was jemand lokal auf seinem Endgerät etwa mit Fotos oder Videomaterial macht und dort abspeichert, wäre davon nicht umfasst.
Erstellung soll strafbar werden
Das will Bundesjustizministerin Stefanie Hubig (SPD) nun ändern. Die Straftat soll bereits mit der Erstellung sexualisierter Deepfakes begangen und somit verfolgbar werden. So stünden auch das Sich-Verschaffen und der Besitz von einschlägigem Material unter Strafe und nicht erst die aktive Verbreitung.
Würde ein neuer §201b StGB der Systematik des §201a folgen, wäre aber auch hier zu erwarten, dass es sich im Regelfall um ein sogenanntes Antragsdelikt handelt: Betroffene – in den meisten Fällen Frauen – müssten dann den Antrag auf Strafverfolgung stellen. Nur im Ausnahmefall wäre dann die eine Verfolgung aufgrund öffentlichen Interesses möglich. Dennoch setzt Hubig auf die abschreckende Wirkung der Strafbarkeit.
Allerdings muss bei einer strafrechtlichen Regelung zur Erstellung und Verbreitung von Deepfakes auch in Zukunft immer eine Abwägung stattfinden, ob ein Deepfake nicht doch zulässig ist. Während im Bereich der sexualisierten Darstellungen eine legale Nutzungsform selten der Fall sein dürfte, ist das etwa bei – mitunter auch geschmacklosen – Satirebeiträgen viel eher möglich. Und auch zur Medien-, Kunst- und Wissenschaftsfreiheit muss das Strafrecht fein abgrenzen, um unbeabsichtigte Kollateralschäden zumindest weitgehend auszuschließen.
Außen vor aus der innerdeutschen Gesetzgebung sind unterdessen die Anbieter selbst: Die Haftungsregularien für die Anbieter sind europarechtlich abschließend geregelt – vor allem der Digital Services Act (DSA) spielt hier eine Rolle. Allerdings würde eine Anpassung des Strafgesetzbuches auch hier die Anbieter vielleicht zu einem schnelleren Eingreifen verpflichten können: per Meldeweg gemeldete Straftaten müssen von den Anbietern geprüft werden.
Zudem könnten für die Beweissicherung etablierte Verfahren zwischen Anbietern und Strafverfolgern genutzt werden, was den Verfolgungsdruck auf Täter künftig erhöhen könnte. Doch auch dabei hängt viel von der Kooperationsbereitschaft der Plattformen ab. Ob die dann auch die Wiederveröffentlichung bereits beanstandeter Inhalte unterdrücken, ist kaum seriös vorhersagbar.
Nur ein Grund, warum Politiker und Aufsichtsbehörden in der EU fordern: Die Betreiber generativer KI-Modelle sollten bereits die Erstellung sexualisierter Inhalte von vornherein unterdrücken, wenn ihre Modelle hierfür genutzt werden könnten.
(vbr)
Künstliche Intelligenz
VR Games Showcase März 2026: Alle neuen VR-Spiele und Ankündigungen
Künstliche Intelligenz
Kompaktes Smart-Teleskop ZWO Seestar S30 Pro im Test
Der chinesische Hersteller ZWO (Zhen Wang Optical) hat sein kompaktes Smart-Teleskop Seestar S30 Pro für Einsteiger und unerfahrene Nutzer konzipiert – trotz Pro im Namen. Im 1,8 Kilogramm leichten S30 Pro stecken zwei getrennte Kamerasysteme mit unterschiedlichen Aufgaben: eine Astrokamera für Deep‑Sky‑Aufnahmen und eine Weitwinkelkamera zur Himmelsorientierung und für Spezialmodi.
Die Hauptkamera sitzt hinter der eigentlichen Teleskop-Optik, ein 30‑mm‑Apochromat mit vier Linsen statt wie beim Vorgängermodell (Test) ein Triplet. Die zusätzliche Linse sorgt für ein flaches Bildfeld am Rand des Bildes, um die Abbildung des im Vergleich zum Vorgänger größeren 1/1,2-Zoll-Bildsensors zu verbessern.
Der Sony-IMX585-Sensor löst 3840 × 2160 Pixel auf und steckt in vielen Astrokameras, unter anderem im wesentlich teureren Vaonis Vespera II. Verglichen mit dem Vorgängermodell hat die Hauptkamera außerdem ein deutlich weiteres Bildfeld.
Das war die Leseprobe unseres heise-Plus-Artikels „Kompaktes Smart-Teleskop ZWO Seestar S30 Pro im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 2 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
