Connect with us

Künstliche Intelligenz

Google: Medienwächter warnen vor KI-Zusammenfassungen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wo bei einer Internetsuche früher eine Liste von blau unterlegten Links den Weg zu verschiedenen Quellen ebnete, präsentieren Dienste wie Google und die spezialisierte KI-Suchmaschine Perplexity zunehmend fertig formulierte Zusammenfassungen („AI Overviews“). Doch was für Nutzer komfortabel erscheinen mag, alarmiert zunehmend die deutsche Medienaufsicht.

Weiterlesen nach der Anzeige

Nach Informationen der Wochenzeitung Die Zeit haben die Medienanstalt Berlin-Brandenburg (mabb) sowie die Landesanstalt für Medien NRW (LfM) bereits Mitte Januar offizielle Verwaltungsverfahren gegen die beiden Tech-Größen eingeleitet. Dabei handelt es sich um ein Novum. Dieser Aufschlag rückt die Frage ins Zentrum, ob und wie algorithmisch generierte Antworten die öffentliche Meinungsbildung manipulieren oder verengen könnten.

Im Kern der Untersuchung steht laut dem Bericht die Sorge um die mediale Vielfalt. Wenn Chatbots Informationen aus verschiedenen Quellen zu einem monolithischen Text verschmelzen, wird die Herkunft der Nachricht oft zur Nebensache. Immer mehr Nutzer informierten sich direkt über solche Zusammenfassungen.

Die Behörden wollen nun klären, wer die journalistische und rechtliche Verantwortung für diese KI-generierten Inhalte trägt. Besonders Perplexity steht hier unter Beobachtung, da das Unternehmen externe Webseiten eher als Fußnoten denn als eigenständige Ziele behandelt. Doch auch Google drängt mit seinen KI-Übersichten in diesen Markt. Auf Smartphones nehmen diese Zusammenfassungen oft den gesamten sichtbaren Bereich ein und verdrängen die klassischen Suchtreffer in den unteren, kaum noch beachteten Bereich.

Dieser Trend befeuert die Angst vor dem „Zero-Click-Szenario“: Wenn die KI die Antwort bereits mundgerecht serviert, entfällt für den Nutzer die Notwendigkeit, auf die Webseite des Urhebers zu klicken. Erste Studien deuten auf massive Reichweitenverluste für Verlage und Informationsanbieter hin.

Google bestreitet einen direkten Zusammenhang zwischen den neuen AI Overviews und sinkenden Klickzahlen. Doch der Druck verschärft sich von juristischer Seite. Das Landgericht Frankfurt hat erst kürzlich in einer Entscheidung klargestellt, dass fehlerhafte KI-Angaben nicht einfach als technisches Versehen abgetan werden können. Wenn eine KI falsche Informationen über Unternehmen verbreitet, kann dies als wettbewerbswidrige Behinderung gewertet werden. Damit erhalten betroffene Firmen ein scharfes Schwert aus dem Kartellrecht, um mittels Unterlassungsansprüchen gegen die „Halluzinationen“ der algorithmischen Systeme vorzugehen.

Weiterlesen nach der Anzeige

Die rechtliche Basis für das Vorgehen der Medienanstalten bildet unter anderem der Digital Services Act (DSA) der EU. Er verpflichtet große Plattformen dazu, systemische Risiken für die Meinungsfreiheit und den Medienpluralismus vorab zu prüfen und zu minimieren. Google und Perplexity haben nun zunächst einige Wochen Zeit, um zu den Vorwürfen Stellung zu nehmen. Dabei zeichnet sich bereits ein Kompetenzgerangel ab: Google stellt die Zuständigkeit der deutschen Medienwächter grundsätzlich infrage und verweist auf die EU-Kommission sowie die irische Datenschutzaufsicht als primäre Ansprechpartner. Die EU-Kommissionermittelt aktuell selbst, ob Googles KI Fremdinhalte geklaut hat.

Schon im Oktober monierten die Landesmedienanstalten gemeinsam auf Basis eines Gutachtens: „KI-basierte Suchantworten schaffen neue Inhalte und verdrängen etablierte Informationsquellen.“ Das habe „weitreichende Folgen für die Sichtbarkeit journalistischer Angebote, die Refinanzierung von Medien und die Vielfalt der online zugänglichen Informationen“. Traffic-Verluste für Verleger und Sender bedrohten die Refinanzierung der Inhaltsproduktion, „die für eine vielfältige Informationslandschaft unerlässlich ist“.

Ob sich die deutschen Regulierer mit ihrem Vorstoß durchsetzen können, hängt vor allem davon ab, wie eng das Zusammenspiel zwischen nationalem Medien- und europäischem Plattformrecht künftig interpretiert wird. Der Freibrief für KI-Experimente auf Kosten der Publisher ist jedenfalls unter Beschuss geraten. Die Verfahren markieren den Beginn einer Debatte darüber, ob Suchmaschinen lediglich neutrale Vermittler bleiben müssen oder ob sie durch die Erstellung eigener Inhalte zu einer neuen Form von Super-Redaktionen werden, die einer strengeren Aufsicht unterliegen.


(dahe)



Source link

Künstliche Intelligenz

Nach OpenAI und Microsoft: Perplexity stellt Gesundheits-KI vor


Der KI-Anbieter Perplexity AI hat mit „Perplexity Health“ einen neuen Dienst vorgestellt, der persönliche Gesundheitsdaten aus Wearables, Apps und Patientenakten zusammenführt. Der Dienst soll auf der Basis Fragen zum Wohlbefinden beantworten – etwa zu Herzfrequenz-Trends oder Trainingsplänen. Zunächst steht Perplexity Health für Abonnenten in den USA bereit.

Weiterlesen nach der Anzeige

Perplexity Health soll sich direkt mit Angeboten wie Apple Health, Fitbit und Withings verbinden können, um deren Daten einzubeziehen. Als weitere Datenquellen dienen Perplexity zufolge elektronische Patientenakten von mehr als 1,7 Millionen Gesundheitsdienstleistern. Ein personalisiertes Dashboard soll persönliche Gesundheitsentwicklungen visualisieren.

In Kombination mit der Ende Februar vorgestellten KI-Agenten-Plattform „Perplexity Computer“ sei der Dienst in der Lage, maßgeschneiderte Pläne, zum Beispiel für das Marathon-Training oder Ernährungsempfehlungen zu erstellen, die unter anderem auf Fitnessdaten und Laborwerten basieren. Pro- und Max-Abonnenten in den USA erhalten als erste Zugriff, weitere Regionen und Nutzergruppen sollen folgen. Wer möchte, kann sich auf eine Warteliste setzen lassen.

Der Dienst sei „nicht dazu bestimmt, Krankheiten oder andere Beschwerden zu diagnostizieren, zu behandeln oder zu verhindern, und ist kein Ersatz für professionelle medizinische Beratung“. Vor der Nutzung des Dienstes rät Perplexity, mit dem Arzt oder der Ärztin zu sprechen. Ähnliche Dienste haben kürzlich auch Microsoft und OpenAI angekündigt. OpenAIs Dienst ChatGPT Health hat einer Studie zufolge bisher jedoch nicht gut abgeschnitten und sogar gefährliche Ratschläge erteilt. Studienergebnisse für Copilot Health sollen laut Microsoft bald veröffentlicht werden.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

c’t-Videoreihe: Das haben wir aus unserem Wetterballon-Flug gelernt (Teil 4)


Mit relativ einfacher Consumer-Technik kann man eindrucksvoll die Interaktion zwischen Weltraum und Erdatmosphäre erforschen. In einer vierteiligen Videoreihe führt Physikerin und Wissenschaftsjournalistin Anne-Dorette Ziems durch die rechtssichere Planung des Wetterballons, das Basteln eigener Messgeräte, einen nervenaufreibenden Starttag und die Auswertung der Messdaten.

Weiterlesen nach der Anzeige

Zum Abschluss geht es an die Daten: Hat die Technik durchgehalten? Wie verändern sich Temperatur, Druck und Strahlung mit der Höhe? Und was kann man aus den Messungen lernen – auch aus den Dingen, die nicht funktioniert haben?

Im ersten Teil haben wir uns durch den Behördendschungel gekämpft. Denn prinzipiell kann in Deutschland jeder einen Wetterballon starten. Es gibt aber natürlich einige Auflagen und Regeln zu beachten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Teil 1: Wir schicken unseren Wetterballon in die Stratosphäre!

Der zweite Teil spielte sich vor allem am Lötkolben und am Computer ab. Wir basteln unsere Messgeräte. Erst die Hardware, dann die Software. Mit an Bord: Kameras für spektakuläre Aufnahmen, Sensoren für Temperatur, Luftdruck und Luftfeuchtigkeit – und als Highlight ein selbst gebauter Myonendetektor zur Messung der Höhenstrahlung.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

aspberry Pi, Arduino & LoRa: Das kommt in unsere Wetterballon-Sonde! (Teil 2)

Doch was passiert, wenn der Ballon außer Sicht gerät? Im dritten Teil starteten wir den Wetterballon und jagten ihm hinterher. Es ging quer durchs Land – immer den empfangenen Funksignalen hinterher. Bis wir irgendwann plötzlich keine Funksignale mehr empfingen.


(mond)



Source link

Weiterlesen

Künstliche Intelligenz

Altersgrenze für Social-Media: EU-Staaten wollen Regulierungen vorantreiben


Die Staats- und Regierungschefs der EU wollen eine Altersgrenze für Online-Plattformen wie Tiktok, Instagram und Co. weiter vorantreiben. Für den Jugendschutz sei ein digitales Mindestalter beim Zugang zu sozialen Medien entscheidend, heißt es in den Abschlusserklärungen nach dem EU-Gipfel in Brüssel.

Weiterlesen nach der Anzeige

Dabei müssten allerdings die Privatsphäre und die nationalen Zuständigkeiten geachtet werden. Die Mitgliedsländer fordern die EU-Kommission auf, das Gesetz über digitale Dienste (Digital Services Act, kurz DSA) und die dazugehörigen Leitlinien für den Schutz Minderjähriger durchzusetzen. In Brüssel gelten besonders Letztere als wahrscheinlichster Weg, eine effektive Altersgrenze für Plattformen einzuführen.

Denn wer digitale Altersgrenzen auch technisch durchsetzen will, kommt um die Online-Plattformen kaum herum. Diesen Regeln vorzuschreiben und diese durchzusetzen, ist aber die alleinige Zuständigkeit der EU-Kommission. Entgegen mancher Vorschläge, die derzeit in der Bundesrepublik diskutiert werden, dürften Deutschland und andere Mitgliedsländer den großen Plattformen allein also gar keine zusätzlichen Pflichten, etwa zur Alterskontrolle, auferlegen. Das müsste auf EU-Ebene entschieden werden.

Ob und bis zu welchem Alter soziale Medien für Minderjährige dann wiederum verboten sein sollten, könnte nationalstaatliche Kompetenz bleiben.

Zudem bekräftigen die EU-Staaten, dass zum Jugendschutz KI-Systemen explizit verboten sein soll, intime Bilder ohne Zustimmung der Betroffenen oder Darstellungen sexuellen Kindesmissbrauchs zu erstellen.

Elon Musks Online-Plattform X war Ende 2025 in die Kritik geraten, weil zunächst alle Nutzerinnen und Nutzer den KI-Chatbot Grok dort auffordern konnten, gepostete Bilder zu sexualisieren. Immer wieder befahlen Menschen der KI etwa, Fotos zu manipulieren und Frauen in Bikinis zu kleiden.

Weiterlesen nach der Anzeige

Lesen Sie auch


(mho)



Source link

Weiterlesen

Beliebt