Künstliche Intelligenz
Kinderfotos im Internet – eine Gefahr für den Nachwuchs
Wer möchte, kann der neuen Generation live beim Aufwachsen zusehen. Im Internet teilen viele ihr gesamtes Leben – und damit auch das ihrer Kinder. Ob Posts frisch nach der Geburt, Videoclips der ersten Schritte oder andere entscheidende Momente: Ist das problematisch?
Weiterlesen nach der Anzeige
Gerade erst in der vergangenen Woche sorgt die US-Streamerin „Fandy“ für Schlagzeilen, als sie die Geburt ihres Babys live mit ihren Followern teilt. Die ersten Sekunden des noch jungen Lebens präsentiert sie wie selbstverständlich ihren zigtausenden Zuschauern. Es gebe bereits eine Menge dokumentierte Geburten, rechtfertigt sich die zweifache Mutter. Es bestünde kein Unterschied zu diesen, nur weil die ihres Kindes live übertragen wurde.
Auch in Deutschland ist das Thema längst präsent. Zu Beginn des Jahres etwa steht die Influencerin „Lala“ in der Kritik, weil sie ihr Baby in ihren Videos nicht zensiert. Es sei an den Eltern abzuwägen, ob man seine Kinder zeige oder nicht, äußert sich die junge Mutter damals. „Fürs Kind wäre es am besten, nicht gezeigt zu werden“, schreibt hingegen eine Userin dazu. Lala ist jedoch nur eine von sehr vielen – sowohl Influencer, die ihr Geld mit Social Media verdienen als auch Privatpersonen teilen häufig Bilder ihrer Kinder.
Eingeschränkte Sichtbarkeit der Fotos
Obwohl das Bewusstsein für mögliche Gefahren bei einigen Eltern steigt und sie ihre Kinder online zensieren, scheinen andere den Nachwuchs unbedingt mit der Welt teilen zu wollen. Im Interview mit der Deutschen Presse-Agentur empfiehlt der promovierte Kinder- und Jugendpsychiater Daniel Illy in diesem Zusammenhang den Vergleich mit klassischen Fotoalben. Beim Teilen online sollten sich Eltern die Frage stellen: „Wem hätte ich dieses Fotoalbum vorgelegt?“
Lesen Sie auch
Diese Frage dürften die meisten Eltern, die Kinderfotos öffentlich posten, sehr freizügig beantworten. Dass jeder sie sehen kann, ist ihnen in der Regel klar. Manche Eltern nutzen aber beispielsweise auch die Möglichkeit, Beiträge in der Sichtbarkeit einzuschränken. Bilder lassen sich dann beispielsweise nur für ausgewählte Freunde bereitstellen. Wieder andere sind auf die Story-Funktionen der Messenger ausgewichen, statt Social Media zu nutzen, da auch hier nur Kontakte Einsicht haben.
Vom Urlaubsbild ins Darknet
Weiterlesen nach der Anzeige
„Kinderbilder gehören nicht ins Netz“, rät auch das Bundeskriminalamt (BKA). Als Zentralstelle der Polizei ist es auch für die Bekämpfung von sexuellem Missbrauch an Kindern zuständig. Mehr als 200.000 Hinweise auf kinderpornografisches Material gingen der Behörde zufolge vergangenes Jahr bei ihr ein. Darunter fallen demnach auch scheinbar harmlose Bilder, die mit Künstlicher Intelligenz so umgestaltet werden, „dass sie leicht bekleidete oder gar nackte Kinder abbilden.“
Im Darknet werden solche Medien dann von pädokriminellen Tätern verbreitet, sexualisiert oder in einen sexuellen Kontext gestellt. Die Bundesregierung erklärt, „dass solches Material im Umlauf ist und dass die Menge des Materials grundsätzlich ansteigt.“
Man macht es Pädophilen schwer und Straftätern leicht
Familien-Blogger teilen neben den großen Momenten auch den Alltag ihres Nachwuchses. „Sharenting“ nennt sich das – eine Symbiose aus den englischen Begriffen für Erziehung und dem Teilen auf sozialen Medien.
Doch die ständige Verfügbarkeit solcher Inhalte im Internet stellt eine erhebliche Herausforderung, etwa für die Präventionstherapie von Pädophilen, dar. Das teilt ein Sprecher von „Kein Täter werden“ auf Anfrage der Deutschen Presse-Agentur mit. Das Präventionsnetzwerk unterstützt pädophile Menschen, damit diese nicht straffällig werden.
In Deutschland fühlen sich Schätzungen zufolge bis zu einem Prozent der männlichen Bevölkerung zu Kindern hingezogen. Die meisten von ihnen bemühen sich nach Angaben des Netzwerks jedoch darum, unerkannt zu bleiben und ihre Vorlieben zu unterdrücken. Doch Kinder-Posts können demnach „ein Gefühl der Normalität schaffen“ und so die Motivation zur Verhaltensänderung, die in Therapien angestrebt wird, untergraben. Auch die Anonymität im Netz senke die Hemmschwelle für den Konsum der Beiträge.
Wenn Kinder sich selbst posten
Neben Eltern, die Beiträge teilen, gibt es allerdings auch Kinder und Jugendliche, die sich selbst im Netz präsentieren. Obwohl das Mindestalter bei den meisten Plattformen derzeit bei 13 Jahren liegt, sind viele Kinder-Influencer noch jünger.
Vor einigen Jahren berichtet ein damals 11-jähriges Mädchen, das seinerzeit als Model-Influencerin online bekannt ist, wie ein Mann sich in den Account ihrer besten Freundin gehackt und sie angeschrieben habe. Er sei sexuell erregt und sie solle ihm Bilder schicken, hat er ihr zufolge gefordert. Heute findet man ihr Profil nicht mehr.
Dieses Verhalten nennt man Cyber-Grooming – eine Anbahnung von sexuellem Kontakt mit Minderjährigen im Internet. Diese Straftat kann mit Freiheitsstrafen von bis zu fünf Jahren geahndet werden. Erwachsene versuchen dabei, Kinder und Jugendliche in private Chats zu locken, setzen sie unter Druck und fordern intime Bilder.
Kinder- und Jugendpsychotherapeut Illy hält nichts davon, dass jüngere Kinder ein Tiktok-Profil haben. „Wofür?“ Insbesondere beim Posten von Babys stelle er sich die Frage: „Was bringt es dem Baby, dass es auf dem Foto im Internet ist?“ Eigentlich ginge es dabei nur um die Eltern. Sie sind voller Stolz und vergessen darüber hinaus die Gefahren. Doch Illy sagt: „Das hat auf einem öffentlich zugänglichen Profil nichts zu suchen.“
Ob man Kinder mit Bildbearbeitung unkenntlich machen oder Fotos von ihnen nur von hinten schießen sollte – das sind Fragen, auf die die Gesellschaft noch Antworten finden müsse, meint Illy. Das Thema sei noch recht jung, sodass es bislang keine allgemeingültigen Normen gebe.
Unkenntlich machen der Gesichter
Gesichter mit Emojis zu überdecken, ist allerdings in vielen Kreisen zu einer Art Standard geworden. Das schützt zumindest einen Großteil der Identität der Kinder. Ihre Gesichter können so beispielsweise nicht für Missbrauchs-Material zur Hand genommen werden.
Immer wieder gibt es in den sozialen Medien Warnungen davor, mittels Künstlicher Intelligenz könne man diese Emojis oder andere Verschleierungen entfernen. Das stimmt so nicht. KI kann zwar Gesichter ersetzen und künstliche Gesichter generieren, aber nicht jenes, was sich tatsächlich darunter verbirgt, wieder erkenntlich machen. Dafür bräuchte die KI das Wissen um das Gesicht – nur damit wäre eine Art Wiederherstellung möglich.
Macht man das Gesicht auf einem Foto erst in einer App unkenntlich, kann allerdings der App-Anbieter in der Regel das Original einsehen. Und er kann dieses gegebenenfalls auch weiter verarbeiten, etwa für das Training von KI-Modellen oder die Informationen für personalisierte Werbung nutzen.
Bilder, die einmal online auf einer Plattform waren, können zudem nicht wieder gelöscht werden. Zumindest kann man nicht dafür garantieren, dass sich diese nicht irgendwo bei einem Anbieter in der Datenbank finden oder von irgendjemandem kopiert wurden.
(emw)
Künstliche Intelligenz
Dienstag: Russen-Porsche von Satelliten abhängig, Musk will EU abschaffen
Viele Porsche lassen sich in Russland nicht anlassen. Zu viele Datenpakete sind gar nicht gesund. Vielleicht muss man genau wissen, was man eigentlich sagt, um ein LLM zu zügeln. Vieldeutiges verspricht Meta Platforms der EU-Kommission. Vielfach zitiert wird „divide et impera“, beispielsweise wenn Elon Musk die Europäische Union wieder zerteilen möchte. Die wichtigsten Meldungen im kurzen Überblick.
Weiterlesen nach der Anzeige
In Russland verweigern zahlreiche Porsche-PKW das Anlassen. Offenbar funktioniert die Satellitenkommunikation der speziell für den russischen Markt eingebauten Alarmanlagen nicht oder nicht richtig. Die Porsche AG erachtet sich nicht für zuständig, wenn sich Porsche-Autos in Russland nicht anlassen lassen.
Einen neuen Weltrekord für DDoS-Angriffe beschriebt Cloudflare: Das Aisuru-Botnetz hat einen Überlastungsangriff mit bis zu 29,7 Terabit pro Sekunde gefahren. Das „UDP-Flächenbombardement“ richtete sich gegen die Webseite des IT-Sicherheitsjournalisten Brian Krebs. Ja, man kann kritische Journalisten auszeichnen, indem man sie mit einem neuen DDoS-Spitzenwert bedenkt.
Effektive LLM-Prompts sind eine Kunst. Gefragt ist Experimentierfreudigkeit gepaart mit Präzision, sagt die bei Anthropic tätige Philosophin Amanda Askell. „Es ist wirklich schwer, das Wesentliche auf den Punkt zu bringen“, gibt sie zu, wenn sie versucht, zu erklären, wie man wirklich gute Prompts schreibt.
Nach intensiven Verhandlungen mit der EU-Kommission verspricht Meta Platforms erstmals, Nutzern im Europäischen Wirtschaftsraum erweiterte Wahlmöglichkeiten rund um Personalisierung von Anzeigen zu geben. Das teilweise Opt-Out von der Auswertung der kommerziellen Überwachung soll bereits im kommenden Monat möglich werden. Konkrete technische Details fehlen allerdings: Meta stellt EWR-Nutzern mehr Wahloptionen für gezielte Werbung in Aussicht
Der Mikroblogging-Dienst X ist bei einer Rechtsverletzung erwischt worden. Die moderate EU-Strafe bringt X-Chef Elon Musk auf die Palme. Er fordert die Abschaffung der Europäischen Union. Zudem hat X ein Werbekonto der EU-Kommission geschlossen, dass diese aber seit Jahren nicht mehr genutzt haben will: Musk fordert Abschaffung der EU, sperrt ihr das Werbekonto
Da war doch was mit digitaler Souveränität? Der Präsident des Bundesamtes für Verfassungsschutz, Sinan Selen, zeigt sich ausgesprochen vorsichtig, was den Einsatz von US-Software wie Palantir anbelangt. Die Politik müsse bei der Auswahl von Software drei Faktoren berücksichtigen. Der Verfassungsschutz-Chef plädiert für europäische Alternativen zu Palantir.
Weiterlesen nach der Anzeige
Auch noch wichtig:
(ds)
Künstliche Intelligenz
Scharfe Abrechnung an der ePA: Kelber kritisiert Sicherheit und Reklamekampagne
Als unsicher und intransparent bezeichnet der ehemalige Bundesdatenschutzbeauftragte, Prof. Ulrich Kelber, die Digitalisierung des deutschen Gesundheitswesens und insbesondere die elektronische Patientenakte (ePA). In einem Vortrag bei einer Veranstaltung der freien Ärzteschaft warf er der Politik vor, Vertrauen durch oberflächliche Werbung zu verspielen und grundlegende Sicherheitsstandards zu ignorieren.
Weiterlesen nach der Anzeige
Reklame statt Aufklärung und hohe Widerspruchsquote
Kelber kritisierte die Kommunikationsstrategie des Bundesgesundheitsministeriums zur ePA scharf. Anstatt Bürgerinnen und Bürger umfassend über Risiken und notwendige Abwägungen aufzuklären, setze das Ministerium auf eine „reine Reklamekampagne“, die das Projekt lediglich als „super und „toll“ anpreise. Wer nur versuche „zu überreden, anstatt zu überzeugen“, so Kelber, der werde auf Dauer nicht vorwärtskommen.
Diese Vorgehensweise führe zu einem Vertrauensverlust, der sich bereits in den Zahlen zeige: Die Widerspruchsquoten gegen die ePA seien mit fünf bis zehn Prozent für ein Opt-out-System ungewöhnlich hoch. Außerdem sei die Gruppe der überzeugten Gegner, die aktiv widersprechen, fast genauso groß oder sogar größer als die Gruppe der überzeugten Befürworter, die sie aktiv nutzen. Die offiziellen Zahlen zur Nutzung schwanken stark zwischen drei und zwölf Prozent. Dies untergrabe laut Kelber auch die Repräsentativität der Daten, die für die Forschung so wichtig sein sollen. Zudem sei die Qualität der Daten, etwa der Abrechnungsdaten, oft unzureichend.
Technische Mängel und instabiler Betrieb
Auch technisch sei das System alles andere als ausgereift. Kelber rechnete vor, dass die offiziell angegebene Betriebsstabilität von 96 Prozent „eine Stunde Ausfall pro Tag“ bedeute. Diese Ausfälle fänden höchstwahrscheinlich nicht nachts, sondern unter Last während der Praxiszeiten statt. Er kritisierte die Haltung der Gematik, die sich zwar unzufrieden zeige, aber auf die Zuständigkeit privater Dienstleister verweise. Das sei „mindestens eine Lücke in dem System“. Bei einem staatlich gelenkten Projekt müsse es wirksame Sanktionsmöglichkeiten gegen unzuverlässige Anbieter geben.
Zusätzlich werde der sichere Zugang für Versicherte systematisch erschwert, nicht nur aufgrund der schwierigen Ersteinrichtung. Die Politik habe dazu ihren Beitrag geleistet. Unter anderem, weil sie es den Krankenkassen durchgehen lasse, die PIN für die elektronische Gesundheitskarte (eGK) nicht zu versenden. „In Wirklichkeit“ lasse sie das Kelber zufolge „auch durchgehen, weil sie auf Dauer das ja gar nicht mehr so haben will“. Gleichzeitig wurde der kostenlose PIN-Rücksetzbrief für den elektronischen Personalausweis aus Kostengründen abgeschafft, was auch diese sichere Alternative unattraktiv mache. Stattdessen würden Nutzer zu unsichereren Methoden wie der biometrischen Anmeldung gedrängt.
Weiterlesen nach der Anzeige
Überhasteter Rollout ohne echte Testphasen
Kelber prangerte zudem den grundlegenden Entwicklungsprozess der Digitalisierungsprojekte an. Er forderte, IT-Systeme im Gesundheitswesen endlich so zu entwickeln, wie es professioneller Standard sei. „Pilotieren, evaluieren, eventuell wieder zurückgehen und nur wenn der Evaluierungsprozess gelaufen ist, dann skalieren, also ausrollen.“ Stattdessen gebe es überhastete Einführungen, die als Tests deklariert werden, aber keine sind. Als Beispiel nannte er die Testphase der ePA in den Modellregionen. Direkt danach sollten sie alle nutzen. Ein solches Vorgehen lasse keine Zeit, „die Ergebnisse zu prüfen“ oder Fehler zu korrigieren. Angesichts von 25 Jahren Versäumnis, so Kelber, komme es auf ein weiteres halbes Jahr für eine qualitativ hochwertige Einführung nicht an.
Sicherheitslücken und „Flickenteppich“-Mentalität
Den Kern seiner Kritik bildeten die massiven Sicherheitsbedenken. Die ePA sei in ihrem jetzigen Zustand nicht sicher. Anstatt Sicherheitslücken grundlegend zu schließen, würden sie oft nur notdürftig „gestopft“. Kelber bemängelte, dass die Sicherheitsarchitektur nicht transparent gemacht werde und Angriffe, die mit den „Ressourcen eines Staates“ durchgeführt werden, bei der Prüfung von vornherein ausgeschlossen würden. Das sei ein Unding bei einer Datenbank mit den Gesundheitsdaten von rund 70 Millionen Menschen.
Besonders alarmierend sei, dass die Schlüssel zur Verschlüsselung der Gesundheitsdaten bei den Betreibern liegen. Kelber nannte hier explizit die Anbieter: IBM, die dem US-Recht unterliegt und Daten an US-Sicherheitsbehörden herausgeben muss, sowie die österreichische Firma RISE, „die in Österreich vom öffentlichen Dienst wegen ihrer Beziehung zu Wirecard und den russischen Geheimdiensten keine Aufträge mehr bekommt“. Nach wie vor sei nicht geklärt, „ob das wirklich vollständig gestoppt ist“. Dass solche Anbieter Zugriff auf die Schlüssel haben, sei „überhaupt nicht state of the art“.
Auch die geplante Umsetzung des European Health Data Space (EHDS) in Deutschland sieht Kelber kritisch. Insbesondere die Entscheidung, das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) zum zentralen „Health Data Access Body“ zu machen, hält er für „nicht glücklich“. Das Problem sei ein massiver Interessenkonflikt: Da das BfArM eigene Forschungsinteressen habe, würde es damit gleichzeitig über seine eigenen Forschungsanträge entscheiden. Kelber warnte davor, dass „nicht jemand selber seine eigenen Forschungsanträge in einem Haus bewährt“. Eine klare Trennung von Aufsicht und Forschung sei keine unnötige Bürokratie, sondern essenziell, um Vertrauen zu schaffen.
Als weiteren Beleg für die Aushöhlung des Datenschutzes nannte Kelber das geplante EU-Omnibusgesetz. Dieses Gesetz sei „nochmal gefährlicher“ und ein Beispiel für übereilte Gesetzgebung. Kelber kritisierte den Entstehungsprozess scharf. Der Datenschutzteil sei nach seinem Kenntnisstand „innerhalb von fünf Tagen“ geschrieben worden – ohne Folgenabschätzung, ohne Evidenzprüfung und ohne jegliche Debatte oder Beteiligung von Stakeholdern. Das Ergebnis sei ein Gesetz, das grundlegende Definitionen aufweiche: So sollen Daten, die einmal anonymisiert wurden, selbst dann nicht mehr unter die Datenschutzgrundverordnung fallen, wenn sie von Dritten später wieder re-identifiziert werden könnten.
Zudem werde der Begriff der Gesundheitsdaten aufgeweicht. Während die Behandlungsdaten einer Onkologie-Patientin geschützt blieben, würden ihre bloßen Aufenthaltsdaten im Onkologiezentrum nicht mehr als Gesundheitsdaten gelten – derartige Daten entstehen beispielsweise bei Terminbuchungen. Besonders kritisch sah Kelber, dass Training von KI pauschal zu einer Rechtsgrundlage für Datenverarbeitung werden soll – ohne weitere Abwägung, selbst bei hochsensiblen Daten.
Deutschlands Abstieg zur „dunklen Kraft“
Während der geplante European Health Data Space (EHDS) die EU-Staaten auf ein gemeinsames Mindestniveau bei der Datensicherheit zwinge, liege Deutschland aktuell darunter. Seinen Vortrag schloss Kelber mit einer düsteren Anspielung auf J.R.R. Tolkiens „Herr der Ringe“: Anstatt wie früher ein Vorreiter im Datenschutz zu sein, sei Deutschland durch solche Vorhaben zu „einer der dunklen Kräfte in Mittelerde geworden“, die aktiv versuche, europäische Standards zu senken. Die Reise in die Digitalisierung des Gesundheitswesens sei, so Kelber in Anlehnung an Bilbo Beutlin, „eine gefährliche Sache“, bei der man genau aufpassen müsse, wohin die Füße einen tragen.
(mack)
Künstliche Intelligenz
KI-Update kompakt: KI-Urheberrechtsstreit, Limitless, Deep-Research, Politik
KI-Urheberrechtsstreit eskaliert
Weiterlesen nach der Anzeige
Der Kampf um KI und Urheberrecht nimmt Fahrt auf. In den USA muss OpenAI 20 Millionen Chat-Protokolle herausgeben. Die New York Times will anhand dieser Protokolle prüfen, ob ChatGPT urheberrechtlich geschützte Artikel wortwörtlich wiedergegeben hat. Parallel dazu hat die Zeitung auch Klage gegen die KI-Suchmaschine Perplexity eingereicht. Bei Perplexity geht es um ein ähnliches Problem: Die KI-Suchmaschine nutzt komplette Nachrichtenartikel, um Nutzeranfragen zu beantworten.

Noch schlimmer: Perplexity halluziniert manchmal und die falschen Ergebnisse werden der Zeitung zugeschrieben. Den Medienhäusern geht es nicht darum, der KI komplett zu verbieten, ihre Inhalte zu nutzen. Sie wollen, dass KI-Firmen Lizenzabkommen abschließen und dafür bezahlen. Meta hat bereits etliche neue Verträge unterschrieben, unter anderem mit USA Today, CNN und Fox News.
Neues Berliner Polizeigesetz erweitert KI-Einsatz
Das Berliner Abgeordnetenhaus hat eine Novelle des Allgemeinen Sicherheits- und Ordnungsgesetzes beschlossen. Die Reform stattet die Polizei mit Befugnissen aus, die tief in die Grundrechte eingreifen. Der neue Paragraf 28a erlaubt der Polizei den biometrischen Abgleich von Gesichtern und Stimmen mit öffentlich zugänglichen Daten aus dem Internet.
Damit kann die Polizei etwa mit Material aus der Videoüberwachung automatisierte Suchen in sozialen Netzwerken durchführen. Außerdem ermöglicht der neue Paragraf 42d die Weiterverarbeitung von personenbezogenen Daten zum Training von KI-Systemen. Datenschützer kritisieren dies scharf, da KI-Modelle oft Rückschlüsse auf die Trainingsdaten zulassen.
Mit KI und Handyüberwachung gegen Anschläge
Weiterlesen nach der Anzeige
Der CDU-Landtagswahl-Spitzenkandidat Sven Schulze in Sachsen-Anhalt will künftig stärker auf KI setzen, um Anschläge besser zu verhindern. KI solle herausfinden, ob jemand einen Ort vorab ausspäht. Dabei greifen derartige Systeme auf die Bewegungsmuster der Besucher zurück. Alle Menschen werden gefilmt und ihr Verhalten wird bewertet. Experten und Datenschützer gehen davon aus, dass dabei die umstrittene Software des US-Unternehmens Palantir zum Einsatz kommen könnte. Sie wird bereits in Bayern, Hessen und Nordrhein-Westfalen eingesetzt.
Meta kauft KI-Gadget-Startup Limitless
Meta hat das Startup Limitless übernommen und nimmt dessen Produkte sofort vom Markt. Limitless, vormals bekannt als Rewind, entwickelte tragbare Anhänger, die den Alltag der Nutzer aufzeichnen und mittels KI durchsuchbar machen. Der Verkauf ist gestoppt, die zugehörige Software wird eingestellt; Bestandskunden bleibt lediglich eine einjährige Nutzungsfrist. Das Interesse des Konzerns dürfte weniger der Hardware gelten als vielmehr den gesammelten Erfahrungen mit „Always-on“-Geräten und der technischen Auswertung permanenter Audio-Streams.
Bürgerrechtler kritisieren KI-Überwachung in US-Gefängnissen
Das US-Telekommunikationsunternehmen Securus hat ein KI-Modell anhand jahrelang aufgezeichneter Telefon- und Videoanrufe amerikanischer Gefängnisinsassen trainiert. Jetzt testet es dieses Modell, um Anrufe, SMS und E-Mails der Häftlinge zu scannen. So sollen Straftaten vorhergesagt und verhindert werden. Aktivisten für Strafgefangene meinen, dass Securus bereits in der Vergangenheit die Bürgerrechte von Gefangenen verletzt hat. Leaks zeigten, dass es Tausende Anrufe zwischen Insassen und ihren Anwälten unrechtmäßig aufgezeichnet habe.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Deep-Research-Systeme erfinden Fakten
Eine Studie des chinesischen Smartphoneherstellers Oppo deckt systematische Schwächen von Deep-Research-Systemen auf. Das Problem: Fast ein Fünftel aller Fehler entsteht, weil die Systeme plausibel klingende, aber erfundene Inhalte generieren. Ein System plant etwa eine umfassende Datenbank-Analyse, kann dann aber nicht auf die Datenbank zugreifen. Statt die Strategie anzupassen, füllt es alle geplanten Abschnitte mit selbst generierten Inhalten.
KI-Agenten bleiben im Unternehmensalltag einfach
Eine Untersuchung der UC Berkeley, der Stanford University und von IBM Research zeigt: Statt autonomer Super-Systeme dominieren im Alltag der Unternehmen einfache Workflows mit viel menschlicher Kontrolle. 68 Prozent der untersuchten produktiven Agenten führen höchstens zehn Schritte aus, bevor ein Mensch eingreifen muss. Das Hauptproblem bleibt die Zuverlässigkeit. 74 Prozent der produktiven Agenten werden deshalb primär von Menschen bewertet.
Perplexity entwickelt Schutzschild für KI-Browser-Agenten
Die KI-Suchmaschine Perplexity hat ein Sicherheitssystem für Browser-Agenten vorgestellt. Ein akutes Problem: Sie sehen mehr auf Webseiten als die Nutzer, etwa weiße Schrift auf weißem Grund. So können Angreifer bösartige Befehle verstecken. Der KI-Agent interpretiert diese dann fälschlich als Nutzeranweisungen. Das neue System namens BrowseSafe soll solche Angriffe erkennen, bevor sie Schaden anrichten.
KI-Modelle können im Chat politische Präferenzen verändern
KI-Chatbots können politische Ansichten von Menschen in kurzen Konversationen womöglich effektiver ändern als traditionelle Wahlwerbung. Forscher befragten Menschen zu ihren politischen Überzeugungen und ließen sie danach mit Chatbots diskutieren, die darauf trainiert waren, diese Meinung zu ändern. Bei den Befragungen danach konnten teilweise große Verschiebungen bei den politischen Meinungen konstatiert werden. Was besonders auffallend war: Die Chatbots argumentierten sehr mit vorgeblichen Fakten, aber ungefähr ein Drittel der Antworten war falsch.
Menschliche Kompetenzen sind wichtiger als KI-Fähigkeiten
Menschliche Fähigkeiten wie Kreativität und Empathie sollen laut dem Weltwirtschaftsforum im Jahr 2030 an erster Stelle stehen, noch vor KI-Kompetenzen. Der Bericht betont jedoch auch, dass gerade diese Kompetenzen in Bildungssystemen bisher zu wenig gefördert werden. Umfragen bestätigen, dass bei Unternehmen schon heute eine hohe Nachfrage nach qualifizierten menschlichen Kompetenzen besteht, während das Angebot nicht mithalten kann.

(igr)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
