Connect with us

Künstliche Intelligenz

KI-Verordnung: Code of Practice für generative KI-Modelle vorgelegt


Dass generative KI-Modelle Probleme mit sich bringen können, das hatte die EU allgemein schon im Rahmen ihrer KI-Verordnung – dem AI Act – festgestellt. Doch die Frage, wie mit den Problemen dann umgegangen werden soll, haben Kommission, Europaparlament und Mitgliedstaaten weitgehend an die Entwickler und einsetzenden Organisationen ausgelagert: Training, Tests und Evaluation müssen dokumentiert und Risiken adäquat adressiert werden.

Welche genau das sind und wie diese dann mitigiert werden sollten – für all das wurde der Gesetzestext aufgrund der Vielfalt an Modellen und Problemen für ungeeignet befunden. Stattdessen sollen Verhaltenscodices oder eben die Erfüllung vergleichbarer Standards durch die Anbieter solcher Modelle die größten Probleme generativer KI-Modelle einhegen. Und der vorerst zentrale solche „Code of Practice“ ist jetzt nach gut einem halben Jahr intensiver Diskussionen mit wenigen Wochen Verspätung vorgelegt worden.

Der Verhaltenskodex gliedert sich dabei in drei Bereiche auf: Transparenz, Urheberrecht und als dritten Teil Sicherheit und Schutzmaßnahmen. In einem Word-Dokument mit Multiple-Choice- und Freitextantwortfeldern sollen Anbieter unkompliziert darlegen, womit, wie, wann und mit welchen Methoden, Datensätzen und welchem Ressourcenverbrauch sie ihre Modelle erstellt haben. Solch eine Dokumentation ist eine zwingende Voraussetzung für den Betrieb in der EU ab dem zweiten August 2025. Im Bereich Copyright etwa sind bestimmte Selbstverpflichtungen enthalten, denen sich GPAI-Betreiber mit ihrer Unterschrift unterwerfen würden, etwa für das Training keine Piraterieseiten zu crawlen oder Rechtebeschränkungen im Sinne der DSA-Richtlinie zu berücksichtigen und rechteverletzende Outputs möglichst zu verhindern.

Der in der Realität gleichwohl am schwersten umsetzbare Teil betrifft derweil das Mitigieren der jeweiligen systemischen Risiken, die vom Modell, Trainingsdaten und dessen Möglichkeiten und Restriktionen abhängen, wie es Artikel 55 der KI-Verordnung verlangt. Hier soll der Code of Practice nun relativ konkrete Handhabe zur Verfügung stellen, welche Arten von Risiken damit gemeint sein könnten und wie damit professionell umgegangen werden könne. Die Palette reicht dabei weit: von künstlich erzeugten Nacktbildern oder Pornografie auf Basis von Fotos echter Personen über Gefahren für die nationale Sicherheit bis hin zu diskriminierenden Inhalten über unzutreffende Gesundheitsratschläge bis zu Radikalisierungschatbots ist alles Mögliche vorstellbar. Auch die Nutzung von Modellen für die Entwicklung von ABC-Waffen oder für digitale Angriffswerkzeuge gehört zu den zu prüfenden Möglichkeiten. Der Code of Practice bietet dabei vor allem ein Referenzmodell für den Umgang damit.

Denn formell ist der Verhaltenskodex für keinen einzigen Anbieter bindend. Zugleich schützt er auch keinen Unterzeichner des Kodexes wirksam davor, nicht doch eines Tages belangt zu werden, wenn sich herausstellt, dass die Maßnahmen unzureichend waren. Über den Code of Practice, den unabhängige Wissenschaftler im Auftrag der EU-Kommission und in einem umfangreichen Beteiligungsverfahren entwickelt haben, wurde in den vergangenen Monaten intensiv diskutiert.

Mit dem Ergebnis zeigt sich Susanne Dehmel, Mitglied der Geschäftsleitung des deutschen IT-Verbands Bitkom nur teilweise zufrieden. Kritisch sieht sie vor allem, dass Anbieter immer auch nach neuen Risiken Ausschau halten müssten, so Dehmel: „Zusammen mit uneindeutig definierten Grundrechtsrisiken und gesellschaftlichen Risiken, bei denen häufig kaum etablierten Methoden zur Identifikation und Bewertung existieren, entsteht neue Rechtsunsicherheit für europäische KI-Anbieter.“

Angesichts der beiden Optionen, sich entweder dem Verhaltenskodex zu unterwerfen und damit zumindest guten Willen zu demonstrieren, oder alternativ alles von Grund auf selbst entwickeln und als rechtskonform darlegen zu müssen, steht gleichwohl zu erwarten, dass sich einige Betreiber von KI-Modellen auf die nun vorgestellte Variante einlassen werden. EU-

Kommissions-Vizepräsidentin Henna Virkkunen sieht den Verhaltenskodex als „wichtigen Schritt dazu, die fortschrittlichsten KI-Modelle in Europa verfügbar und dabei nicht nur innovativ, sondern auch sicher und transparent zu gestalten“. Sie forderte die Unternehmen entsprechend auf, sich dem Kodex freiwillig zu unterwerfen. Allerdings fehlt derzeit dafür noch ein wichtiges Werk der EU-Kommission: die sogenannten Leitlinien, mit denen festgelegt werden soll, was als KI mit allgemeinem oder nicht spezifiziertem Verwendungszweck, also als GPAI im Sinne der KI-Verordnung gelten wird. Doch auch diese sollen nun zeitnah veröffentlicht werden.

Zu befürchten haben Unternehmen gleichwohl vorerst nichts, wenn sie sich noch nicht an die Regeln halten. Egal, ob mit oder ohne Kodex: Sanktionen für diese Pflichten aus dem AI Act sind frühestens im August 2026 vorgesehen. Und in vielen Mitgliedstaaten, darunter auch Deutschland, ist die notwendige Begleitgesetzgebung für die nationalen Aufsichtsstrukturen weiterhin nicht verabschiedet. Dass das deutsche Begleitgesetz nicht mehr rechtzeitig zum Inkrafttreten der nächsten AI Act-Regelungen im August 2025 kommen wird, ist ausgemacht. Das nun zuständige Digitalministerium will daran zwar weiterarbeiten, nach dem Regierungswechsel werde dies jedoch nicht mehr rechtzeitig möglich sein, teilte das Haus zuletzt mit.

Europa habe seinen Teil fristgerecht geliefert, nun brauche es auch seitens der Bundesregierung mehr Tempo, fordert die Grünen-Bundestagsabgeordnete Rebecca Lehnhardt: „Verzögerungen oder gar eine Aufweichung der Pflichten würden nur Rechtsunsicherheit und Misstrauen schüren.“ Zuletzt war immer wieder über eine Teilverschiebung spekuliert wurde, die einige Mitgliedstaaten und Unternehmen auch gerne gesehen hätten. Eine allgemeine Verschiebung ist mit der heutigen Verhaltenskodex-Veröffentlichung allerdings noch einmal unwahrscheinlicher geworden, allenfalls einzelne, später relevante Spezialregelungen könnten nun noch einmal diskutiert werden.


(mho)



Source link

Künstliche Intelligenz

Nach Einmalzahlung: Hunderttausende inaktive BundID-Konten sind gelöscht


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Rückschlag für das Bemühen der Bundesregierung, die Digitalisierung der Verwaltung und das E-Government mithilfe der BundID voranzutreiben: Die Zahl der Nutzer der staatlichen Zugangskennung und dem damit verknüpften Online-Konto für Bürger hat sich seit Ende 2024 um mehrere hunderttausend verringert. Dies teilte das Bundesdigitalministerium der Nachrichtenagentur AFP mit. Als Grund nannte es demnach die routinemäßige Deaktivierung von Accounts, die über längere Zeit nicht in Gebrauch waren.

Laut Angaben des Ministeriums gab es am 11. August 2025 noch etwa 4,86 Millionen aktive BundID-Konten. Ende 2024 lag diese Zahl noch bei knapp 5,3 Millionen, im März 2025 sogar bei knapp 6 Millionen. Der größte Rutsch nach unten bei den Registrierungen ereignete sich laut dem Dashboard Digitale Verwaltung im April 2025.

„Der Rückgang der Anzahl der Nutzerkonten erklärt sich durch die automatische Löschung von inaktiven Konten im ersten Quartal 2025“, erklärte ein Sprecher des Ministeriums gegenüber der AFP: Weiter führte er aus, dass „aufgrund datenschutzrechtlicher Regelungen Nutzerkonten nach 24 Monaten Inaktivität gelöscht werden müssen“.

Ein wesentlicher Grund für das Minus dürften Accounts sein, die Schüler und Studierende 2023 erstellten. Die BundID war damals erforderlich, um die 200 Euro Einmalzahlung als Ausgleich für die gestiegenen Energiepreise zu erhalten. Nach Erhalt der Pauschale war das E-Government-Konto für viele der Antragsteller offenbar nicht mehr attraktiv.

Die Zahl der BundID-Konten steige seit Mai 2025 aber wieder leicht an, hieß es weiter. Der monatliche Zuwachs liege derzeit bei durchschnittlich 154.000 Accounts. Zudem hätten sich die monatlichen BundID-Logins seit 2024 verdoppelt und seien im Mittel von einer auf zwei Millionen gestiegen. Eine genaue Aussage darüber, welche Online-Verwaltungsdienstleistungen die Bürger am meisten nutzen, konnte das Ressort derzeit nicht treffen. Die aktuellen Erhebungen gäben dies nicht her.

Bürger, die ein Nutzerkonto bei der BundID angelegt haben, können sich bei Onlinediensten zu angeschlossenen Verwaltungsleistungen digital gegenüber Behörden identifizieren. Erstmals stellte das Bundesinnenministerium die BundID 2019 bereit. Seit dem Regierungswechsel ist das Digitalministerium federführend dafür zuständig. Momentan sollen knapp 1800 Onlinedienste, Plattformen und Portale an die Lösung angebunden sein. Das Bundeskonto und die mit dem Personalausweis verknüpfte elektronische Identität (eID) führten jahrelang ein Nischendasein. Praktische Anwendungen gab es anfangs nur wenige. Voriges Jahr hatten 22 Prozent der Bevölkerung die Funktion schon einmal genutzt.

Vor allem die an die BundID und die eID gebundene Einmalzahlung sowie der Kulturpass haben den Online-Ausweis und das Nutzerkonto bekannter gemacht. Mit dem Onlinezugangsgesetz 2.0 (OZG) soll ein einheitliches digitales Bürgerkonto auf Basis der BundID geschaffen und diese in DeutschlandID umbenannt werden. Eine Sicherheitslücke in einer kommunalen Webseite öffnete jüngst aber auch ein Datenleck bei der BundID. Mit der Kennung lassen sich etwa Anträge auf Elterngeld oder BAföG stellen, der Wohnsitz an- und ummelden oder die Autozulassung bewerkstelligen. Seit einem guten Jahr können Bürger die BundID auch für die E-Services der Bundesagentur für Arbeit verwenden.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Podcasts werden meist nebenbei gehört


Egal, ob unterwegs oder Zuhause: Podcasts gehören für viele zum Alltag hinzu, das zeigt eine Umfrage im Auftrag des Digitalverbands Bitkom. Etwa die Hälfte (49 Prozent) aller Befragten hört gelegentlich Podcasts. Die Verteilung ist bei allen Altersklassen bis 65 Jahre gegeben. Bei den Befragten ab 65 Jahren nimmt der Anteil leicht ab (44 Prozent). Im Schnitt hören die Befragten für etwa zwei Stunden pro Woche Podcasts. Nur wenige hören drei bis fünf Stunden pro Woche (14 Prozent) und nur ein kleiner Teil schafft es diese Zeit noch zu überbieten (4 Prozent).

Viele Menschen schalten Podcasts einfach mal nebenbei ein. So hört fast die Hälfte (44 Prozent) beim Autofahren Podcasts – in Bussen und Bahnen jedoch knapp weniger als ein Drittel (30 Prozent). Auch beim Haushalt entscheidet sich etwa ein Drittel (36 Prozent) dazu, eine Folge zu hören. Wenn jedoch aktiv aufgepasst werden muss, verzichten viele auf die Nebenbeschäftigung. Während der Arbeit, der Schule oder der Uni hören nur wenige Podcasts (13 Prozent) – und bei der Gartenarbeit sogar nur in den seltensten Fällen (ein Prozent). Rein zur Entspannung, ohne eine andere Beschäftigung, schaltet nur etwa jeder Dritte (29 Prozent) einen Podcast ein.

Die Studie ist nach Angabe von Bitkom Research, das sie durchgeführt hat, repräsentativ. Dafür wurden von Ende Mai bis Anfang Juni 2025 insgesamt 1209 Personen ab 16 Jahren in Deutschland telefonisch befragt. 595 von diesen nutzten Podcasts.

Unter dem folgenden Link finden sich im Übrigen alle Podcasts von heise medien.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Wettbewerb und App-Store-Rankings: X und xAI verklagen Apple und OpenAI


Das KI-Startup xAI und die Online-Plattform X haben am Montag vor einem US-Bundesgericht in Texas Klage gegen die US-Konzerne Apple und OpenAI eingereicht. Die von dem Milliardär Elon Musk gegründeten Unternehmen werfen den beiden Konkurrenten monopolistische Praktiken vor. Sie hätten sich illegal verschworen, um den Wettbewerb bei künstlicher Intelligenz (KI) zu behindern. Apple und OpenAI haben „Märkte abgeschottet, um ihre Monopole aufrechtzuerhalten und Innovatoren wie X und xAI am Wettbewerb zu hindern“, heißt es in der Klageschrift.

In der Klage vor dem Bezirksgericht der Vereinigten Staaten für den nördlichen Bezirk von Texas in Fort Worth (AZ. 4:25-CV-00914-P) beschuldigen X und xAI Apples App Store, konkurrierende Chatbots und „Super“-Apps, darunter Grok und X, zu benachteiligen. Apple hat eine Partnerschaft mit OpenAI geschlossen, um eine Schnittstelle zu ChatGPT in seine Betriebssysteme für iPhones, iPads und Macs zu integrieren. „Ohne den Exklusivvertrag mit OpenAI hätte Apple keinen Grund, die X-App und die Grok-App nicht in seinem App Store zu präsentieren“, heißt es in der Klageschrift. Musks Unternehmen behaupten, dass iPhone-Nutzer keinen Grund hätten, KI-Apps von Drittanbietern herunterzuladen, weil das Unternehmen seine Nutzerinnen und Nutzer zwingt, ChatGPT als Standard-Chatbot-App zu verwenden. Auch verschaffe die ChatGPT-Integration des iPhones OpenAI Zugang zu „potenziell Milliarden von Benutzeranfragen, die von Hunderten von Millionen von iPhones stammen“, was einen unfairen Vorteil darstelle. X und xAI fordern Schadensersatz in Höhe von mehreren Milliarden US-Dollar.

„Diese jüngste Klage steht im Einklang mit Herrn Musks andauernden Belästigungen“, erklärte ein OpenAI-Sprecher in einer Stellungnahme gegenüber der Nachrichtenagentur Reuters. Anfang dieses Monats hatte Musk bereits mit „unmittelbaren rechtlichen Schritten“ durch seine KI-Firma xAI gedroht. Bereits damals behauptete er in einem Post auf seiner Plattform X, Apple mache es unmöglich, dass andere KI-Firmen außer OpenAI bzw. ChatGPT die Nummer 1 in den App-Store-Charts erreichen könnten. Das sei ein „eindeutiger Verstoß gegen das Kartellrecht“.

Die von X und xAI angestrengte Klage könnte den Gerichten in den Vereinigten Staaten nach Einschätzung von Reuters zum ersten Mal die Gelegenheit geben, zu beurteilen, ob es einen definierten Markt für KI gibt und was dieser umfasst. Bei kartellrechtlichen Streitigkeiten sei dies eine Schwellenfrage.

Darüber hinaus verklagt Musk OpenAI und dessen CEO Sam Altman separat vor einem Bundesgericht in Kalifornien, um die Umwandlung des Unternehmens von einem gemeinnützigen in ein gewinnorientiertes Unternehmen zu verhindern. Im März wies das zuständige Gericht den dazugehörigen Eilantrag jedoch ab. Es seien keine ausreichenden Gründe vorgelegt worden, um sofort zu entscheiden, so das Gericht. Musk hat OpenAI zusammen mit Altman im Jahr 2015 als gemeinnütziges Unternehmen gegründet, zog sich nach Streitigkeiten um die Ausrichtung und vor allem um die Führungsstrukturen 2018 aber aus dem Unternehmen zurück. Eine Klage gegen Apple dagegen hatte Musk bislang nicht angestrengt. Beim letzten öffentlichen Streit glättete ein persönliches Gespräch mit Apple-Chef Tim Cook die Wogen.


(akn)



Source link

Weiterlesen

Beliebt