Connect with us

Künstliche Intelligenz

Studie: Neue KI-Programme bei Kindern verbreitet


Neue Chat-Anwendungen mit Künstlicher Intelligenz (KI) gehören laut einer Studie inzwischen bei vielen Kindern und Jugendlichen zum Alltag und können auch zu einer problematischen Nutzung beitragen. Mehrmals pro Woche nutzen 20,8 Prozent der Befragten von 10 bis 17 Jahren Programme wie ChatGPT oder Gemini, wie Umfragedaten der Krankenkasse DAK-Gesundheit und des Universitätsklinikums Hamburg-Eppendorf (UKE) ergaben. Täglich nutzen sie demnach – gefragt nach den letzten sechs Monaten – 6,4 Prozent.

Weiterlesen nach der Anzeige

„Dabei zeigt sich, dass Chatbots häufig als Lern- und Informationswerkzeug eingesetzt werden, zugleich aber auch einzelne sozial-emotionale Funktionen erfüllen können“, heißt es in der Studie, die heute in Berlin vorgestellt werden soll. So hätten einzelne angegeben, Chatbots Dinge anzuvertrauen, die sie sonst keinem oder nur engen Freunden erzählen würden. „Manchmal“ trifft dies demnach auf 7 Prozent zu, „oft“ oder „sehr oft“ auf weitere 3,4 Prozent.

Diese Angaben beziehen sich auf 644 Befragte, die Chat-Programme nach eigenen Angaben nicht „nie“ nutzen. Insgesamt wurden den Angaben zufolge 1.005 Kinder von 10 bis 17 Jahren mit je einem Elternteil vom 24. September bis 12. Oktober 2025 für die neue Studie vom Institut Forsa befragt. Es ist die achte Welle einer seit 2019 laufenden Mediennutzungsstudie von DAK und UKE.

Trotz leichter Rückgänge bei den Nutzungszeiten bleibe die Zahl von Kindern und Jugendlichen mit einer problematischen Mediennutzung sehr hoch, heißt es in der neuen Untersuchung. Bemerkenswert aus Sicht der Suchtvorbeugung sei ein starker Anstieg bei der Nutzung von Online-Videos auf Plattformen wie TikTok und YouTube. Damit rückten auch verbreitete Darstellungselemente wie endloses Scrollen oder automatische Wiedergaben in den Fokus.

Social-Media-Angebote wie Messenger, Streamingdienste oder Fotoalben nutzen laut der Studie 88,8 % der Mädchen regelmäßig, wobei 69,8 Prozent dies auch täglich tun. Bei Jungen lagen diese Anteile bei 86,1 Prozent und 66,8 Prozent. Im Schnitt lag die Nutzungsdauer laut der Befragung von Herbst 2025 werktags bei 146 Minuten pro Tag und an Wochenenden bei 201 Minuten pro Tag – das war etwas kürzer als im Jahr zuvor mit 157 und 227 Minuten.

Weiterlesen nach der Anzeige

Der Anteil der Kinder mit einer riskanten Social-Media-Nutzung lag demnach nun bei 21,5 Prozent nach 21,1 Prozent im Vorjahr. Hochgerechnet zeigten 1,4 Millionen der 10- bis 17-jährigen Kinder in Deutschland problematische Muster, heißt es in der Studie – dazu zählen eine riskant starke Nutzung und eine sogar krankhafte Nutzung, bei der es auch zu Kontrollverlusten bei der Dauer oder einer Vernachlässigung anderer Alltagsaktivitäten kommen kann.

DAK-Chef Andreas Storm sagte, die anhaltend hohe Mediensucht zeige den großen Handlungsbedarf. „Für eine sinnvolle Altersregulierung braucht es jetzt eine rasche gesetzliche Regelung bis zur Sommerpause. Damit erste Maßnahmen dann bereits im kommenden Schuljahr greifen, sollten wir unabhängig von einer EU-weiten Lösung handeln.“ In der Koalition haben sich CDU und SPD für ein Social-Media-Verbot für Unter-14-Jährige ausgesprochen.


(mho)



Source link

Künstliche Intelligenz

Software Architecture Gathering 2026 in Berlin: Jetzt Vortrag einreichen


Am 17. und 18. November findet das iSAQB Software Architecture Gathering 2026 erneut in Berlin statt. Vor und nach den Konferenztagen gibt es am 16. und 19. November zusätzliche Workshops. Da die Konferenz letztes Jahr erneut ausverkauft war, wechselt sie dieses Jahr in eine größere Location und findet im Titanic Chausee Berlin statt.

Weiterlesen nach der Anzeige

Die Veranstalter, International Software Architecture Qualification Board (iSAQB) und heise conferences, suchen bis Mitte Juni nach Vorträgen und Workshops für das Konferenzprogramm.

Das Software Architecture Gathering richtet sich vor allem an Softwarearchitekten und Softwareentwicklerinnen. Die Konferenzsprache ist Englisch. Im bis zum 9. Juni laufenden Call for Papers sind 45-minütige Vorträge, Keynotes sowie ganztägige Workshops (6 Stunden) gefragt. Die Themengebiete sind dieses Jahr:

  • Grundlagen der Softwarearchitektur
  • Softwarearchitektur im KI-Zeitalter
  • Moderne Architekturkonzepte
  • Neue Technologien und Quantencomputing
  • Soziotechnische Architektur
  • Security, Resilienz und Nachhaltigkeit
  • Lessons Learned und Best Practices
  • Blick über den Tellerrand

Vor der Veröffentlichung des Programms gibt es besonders günstige Blind-Bird-Tickets. Zusätzliche Rabatte sind sowohl für Teams als auch für iSAQB Certified Professionals for Software Architecture (CPSA) erhältlich. Darüber hinaus gibt es ermäßigte Tickets für Studenten und Freelancer.


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Einkaufsagenten: Welche Risiken Nutzer und Firmen kennen müssen


Agentic Commerce verschiebt die Dynamik beim Shopping von „Mensch sucht Produkt“ zu „Maschine verhandelt mit Maschine“. Dadurch entstehen völlig neue Sicherheitsrisiken. Kriminelle oder auch einer der am Kauf beteiligten Akteure könnte Prozesse betrügerisch manipulieren, etwa an den Schnittstellen zwischen den Maschinen oder mittels Prompt Injection, also durch Manipulation einer künstlichen Intelligenz durch Eingaben, die deren ursprüngliche Anweisungen oder Sicherheitsregeln umgehen.

Außerdem bringt Agentic Commerce datenschutzrechtliche und ethische Fragestellungen mit sich, die weit über den klassischen E-Commerce hinausgehen: Um sinnvoll handeln zu können, benötigen Shoppingagenten Informationen, etwa Präferenzen, Kontext und die bisherige Kaufhistorie.

  • Je mehr Rechte und Autonomie KI-Assistenten beim Einkaufen erhalten, desto problematischer wird es, sie zu benutzen.
  • Der Artikel analysiert Sicherheitslücken, Manipulationsmöglichkeiten und rechtliche Grauzonen dieser Systeme.
  • Kritiker fordern nach dem Prinzip „human on the loop“, dass Entscheidungen bei Menschen verbleiben müssen.

DSGVO-Prinzipien wie Datensparsamkeit, Transparenz und Zweckbindung lassen sich mit dem Agieren der Agenten nur schwer vereinbaren. Wohin sich Agentic Commerce in den nächsten Monaten und Jahren entwickelt, lässt sich schwer absehen. In diesem Artikel tasten wir die größten Knackpunkte ab.


Das war die Leseprobe unseres heise-Plus-Artikels „KI-Einkaufsagenten: Welche Risiken Nutzer und Firmen kennen müssen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

ChatGPT führt optionalen Vertrauenskontakt für psychische Krisenfälle ein


OpenAI führt eine optionale Schutzfunktion für erwachsene ChatGPT-Nutzer ein. Sie können eine Vertrauensperson festlegen, die benachrichtigt wird, wenn Chatbot-Gespräche über Selbstverletzung auf eine ernsthafte Gefährdung hindeuten.

Weiterlesen nach der Anzeige

Die Vertrauensperson muss volljährig sein und erhält eine Einladung, die ihre Rolle erklärt. Lehnt sie ab, kann der Nutzer eine andere erwachsene Person benennen.

Erkennt das System Chatbot-Gespräche, die auf eine Selbstgefährdung hindeuten, informiert ChatGPT Nutzer darüber, dass die Vertrauensperson von OpenAI benachrichtigt werden könnte, und ermutigt sie, selbst den Austausch zu suchen. Anschließend prüft ein speziell geschultes Team den Fall. Kommt es zu dem Schluss, dass eine akute Gefährdung vorliegt, wird die Vertrauensperson per E-Mail, SMS oder direkt in der ChatGPT-App benachrichtigt, sofern sie über ein entsprechendes Konto verfügt.

In der Benachrichtigung werden weder Chatinhalte noch Transkripte weitergegeben. Stattdessen enthält sie einen allgemeinen Hinweis darauf, dass Selbstverletzung in potenziell besorgniserregender Weise zur Sprache kam sowie die Aufforderung, den Nutzer aktiv anzusprechen.

Nutzer können ihren Vertrauenskontakt jederzeit in den Einstellungen ändern oder entfernen, ebenso kann sich die Vertrauensperson selbst jederzeit wieder austragen. Laut Ankündigung strebt OpenAI an, Sicherheitsmeldungen in weniger als einer Stunde zu prüfen.

Auf der eigenen Support-Seite schreibt OpenAI, dass die Funktion in den meisten Ländern und Regionen für Erwachsene ab 18 Jahren verfügbar ist. Sie ist nur für private ChatGPT-Konten aktiviert.

Weiterlesen nach der Anzeige

Mit dieser Neuerung weitet OpenAI eine ähnliche Schutzfunktion für Minderjährige auf Erwachsene aus. Sie geht auf Jugendschutzmaßnahmen zurück, die im September 2025 eingeführt wurden. Diesen wiederum ging eine Klage der Eltern eines 16-Jährigen voraus, der sich im April 2025 das Leben genommen hatte. Die Eltern werfen OpenAI vor, ChatGPT habe keine ausreichenden Schutzmechanismen gehabt und den Jugendlichen in seinen suizidalen Gedanken bestärkt. OpenAI wies die Vorwürfe zurück und sah den Fall als Missbrauch von ChatGPT, da der Jugendliche Sicherheitsmaßnahmen des Chatbots ausgehebelt haben soll.

Gegen OpenAI gibt es in den USA weitere Klagen dieser Art. Das Unternehmen steht mit solchen Vorwürfen nicht allein da: Auch andere Anbieter wurden von Angehörigen verklagt, deren Kinder sich nach langen Chatbot-Gesprächen verletzt oder das Leben genommen haben sollen.

Inzwischen betreffen solche Vorwürfe zunehmend auch Erwachsene sowie Fälle, in denen psychische Krisen nicht nur für die Betroffenen selbst gefährlich werden können: So verklagt der Vater eines erwachsenen Gemini-Nutzers Google, weil der Chatbot seinen Sohn in eine wahnhafte Beziehung mit einer KI-Persona verwickelt, zu bewaffneten Anschlägen ermutigt und zu dessen Suizid beigetragen haben soll. In Florida wird zudem geprüft, ob ChatGPT bei der Vorbereitung eines tödlichen Uni-Anschlags half.


(tobe)



Source link

Weiterlesen

Beliebt