Künstliche Intelligenz
Türkei: Restriktionen für Instagram, YouTube und Co. geplant
Die Türkei leitet Untersuchungen der Online-Dienste TikTok, Instagram, YouTube, Facebook, X und Discord ein. Das gab die türkische Datenschutzbehörde am Freitag bekannt. Geprüft werden soll dabei, wie die Plattformen Kinder und Jugendliche vor Risiken im Netz schützen und wie sie mit ihren Daten umgehen.
Weiterlesen nach der Anzeige
Die Untersuchungen erfolgen vor dem Hintergrund weitreichender Regulierungen des Online-Zugangs für Minderjährige in der Türkei. Künftig sollen Social-Media-Konten erst ab einem Alter von 15 Jahren angelegt werden können, berichtet die regierungsnahe Hürriyet Daily News. Vorher dürfe der Zugang nicht möglich sein. Für Menschen zwischen 15 und 18 Jahren seien zudem biometrische Restriktionen geplant.
Die Verantwortung dafür wolle der Staat an die Plattformen selbst abgeben. Bei Verstößen könnte etwa die Internet-Bandbreite der Dienste zeitweise reduziert werden. Erst im vergangenen Jahr wurden einige Dienste im Land als Antwort auf Proteste vorübergehend stark eingeschränkt.
Auch eine Klarnamenpflicht und die Überprüfung der Identität per Telefonnummer oder Ausweis sollen demnach eingeführt werden. Das geplante „Familienpaket“ enthält zudem die Möglichkeit, Social-Media-Inhalte ohne gerichtlichen Beschluss zu entfernen, so das Nachrichtenportal Turkish Minute. Eine entsprechende Gesetzesvorlage der Regierungspartei AKP wird innerhalb der nächsten Tage erwartet.
Ähnliche Maßnahmen auch in Deutschland?
Auch in Deutschland gibt es Diskussionen über ähnliche Maßnahmen. Diese werden mit dem Jugendschutz begründet. Der CDU-Parteitag hat am Wochenende etwa beschlossen, dass die Bundesregierung ein Social-Media-Verbot für Menschen unter 14 Jahren auf den Weg bringen soll. Die SPD hatte sich als Koalitionspartnerin im Vorfeld ebenfalls für diese Altersgrenze ausgesprochen. Kinder und Jugendliche unter 14 Jahren sollen demnach keinen Zugriff auf Social-Media-Plattformen haben. Zwischen 14 und 16 Jahren sollen sie zudem nur Jugendversionen der Dienste nutzen können. Die von Bundeskanzler Friedrich Merz geforderte Klarnamenpflicht ist dagegen vorerst vom Tisch.
Weiterlesen nach der Anzeige
()
Künstliche Intelligenz
Lokale KIs mit OpenClaw nutzen: Agenten und Bildgenerierung auf eigener Hardware
In Kombination mit modernen Cloud-KIs von Anthropic, Google, OpenAI und Co. ist OpenClaw ein vielseitiges Werkzeug mit mächtigen Agenten-Funktionen. So können Nutzer ihrer KI verschiedene Jobs anvertrauen und sie etwa E-Mails senden, Buchungen vornehmen oder Skripte schreiben und ausführen lassen. Doch was ist mit lokalen KIs: Lassen sie sich sinnvoll in das OpenClaw-Framework integrieren?
Wir haben genau das ausprobiert und OpenClaw mit den lokalen Anwendungen Ollama (für agentische Sprachmodelle) und ComfyUI (zur Bildgenerierung) verbunden. Im Bereich typischer Endanwender-LLMs kommen einige infrage, die grundlegende agentische Funktionen wie Lesen und Schreiben von Dateien sowie Ausführen von Skripten über OpenClaw beherrschen und keine Monstergrafikkarten benötigen. Eines der Modelle passt in den Grafikspeicher von 16-GByte-Grafikkarten, etwa einer GeForce RTX 5060 Ti.
- OpenClaw kann nicht nur mit großen Cloud-KIs arbeiten, auch lokale LLMs lassen sich in das Agenten-Framework einbinden, wo sie Funktionen übernehmen können, die über reine Chats hinausgehen.
- Für den Artikel testen wir OpenClaw im Zusammenspiel mit Ollama. Das gewählte LLM passt in den Videospeicher einer 16-GByte-Grafikkarte. Es kann uns etwa Skripte schreiben und wiederkehrende Aufgaben in Form von Cronjobs abarbeiten, die wir zuvor mit einer Cloud-KI erstellt haben. So nimmt die lokale KI der großen aus der Cloud Arbeit ab und senkt den Verbrauch kostenpflichtiger Token.
- Auch die lokale Bildgenerierung über ComfyUI haben wir an OpenClaw angeschlossen. So kann man etwa im mobilen Messenger einen Prompt eingeben, den die KI nutzt, um ein Bild in ComfyUI zu erstellen und anschließend via Messenger an den Nutzer zu senden.
Der Artikel erläutert, wie man Ollama-LLMs für agentische Funktionen über OpenClaw unter der Linux-Distribution Ubuntu einsetzen kann. Ein Praxisbeispiel erklärt, wie die lokale KI etwa in Cronjobs kleinere wiederkehrende Aufgaben erledigt. So nimmt sie den teuren Cloud-Modellen Arbeit ab und senkt den kostenpflichtigen Token-Verbrauch. Zudem verknüpfen wir ComfyUI zur lokalen Bildgenerierung mit OpenClaw. Auf einen Befehl, etwa über einen mobilen Messenger, gibt dann eine nichtlokale KI Befehle an die . So können Nutzer etwa komplexere Bildgenerierungs-Workflows in OpenClaw nutzen, die einfache Bildgeneratoren nicht bieten. Der Artikel setzt voraus, dass eine grundlegende Einrichtung von OpenClaw bereits stattgefunden hat. Eine kurze Einführung zur Installation und Konfiguration von OpenClaw finden Sie hier.
Das war die Leseprobe unseres heise-Plus-Artikels „Lokale KIs mit OpenClaw nutzen: Agenten und Bildgenerierung auf eigener Hardware“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Mit ChatGPT erstellte Passwörter sind nicht sicher
Auf den ersten Blick mag es als sinnvolle Idee erscheinen, KI-Chatbots mit der Erstellung von sicheren Passwörtern zu beauftragen. Doch das dürfte sich schnell als gefährlicher Irrtum herausstellen, wie Sicherheitsforscher warnen.
Weiterlesen nach der Anzeige
KI mit eingebauter Schwachstelle
Entsprechenden Tests der Firma Irregular zufolge lassen sich die per KI erstellten Passwörter nämlich leicht knacken – und das, obwohl sie für Laien durchaus sicher aussehen. Das Problem: Große Sprachmodelle (LLM), auf denen ChatGPT, Gemini oder Claude basieren, haben in diesem Zusammenhang eine eingebaute Schwachstelle.
Denn diese KI-Systeme sind darauf optimiert, vorhersehbare und plausible Ergebnisse zu generieren. Das sei mit einer sicheren Passworterzeugung nicht kompatibel, warnen die Experten. Oder einfacher gesagt: LLMs können keinen echten Zufall, da sie Zeichenfolgen anhand von Wahrscheinlichkeiten und den integrierten Trainingsdaten ausgeben.
Zeichenfolgen an vorhersehbaren Stellen
Dabei erzeugen die KI-Chatbots zwar Passwörter, die aussehen wie sichere Zeichenfolgen mit Sonderzeichen und Zahlen. Allerdings würden diese oft an identischen und damit vorhersehbaren Stellen platziert, so die Experten. Ein kryptografisch sicheres Passwort habe eine Entropie von rund 98 Bit. Die KI-generierten Passwörter haben in den Tests dagegen nur rund 27 Bit erreicht. Das bedeute, dass Hacker die KI-Passwörter per Brute-Force-Attacke selbst mit normalen Computern innerhalb von Stunden statt Jahrzehnten knacken könnten.
Getestet haben die Sicherheitsforscher Anthropics Claude Opus 4.6, OpenAIs GPT-5.2 und Googles Gemini 3 Flash. Bei allen drei KI-Systemen hätten sich feste Strukturen gezeigt, etwa identische Anfänge und nur geringe Variationen bei der Zeichenauswahl.
Muster in Open-Source-Code
Weiterlesen nach der Anzeige
Den Forschern zufolge ist das Problem längst nicht mehr theoretisch, sondern habe längst seinen Niederschlag in der Softwareentwicklung gefunden. So seien die identifizierten Muster in Open-Source-Code auf GitHub gefunden worden. Das sogenannte Vibe-Coding könne dadurch zum gefährlichen Einfallstor für Cyberangriffe werden.
Experten raten daher zur Nutzung von Passwort-Managern, die auf kryptografisch sichere Pseudozufallszahlengeneratoren setzen. Einige KI-Anbieter haben derweil schon auf die potenzielle Gefahr reagiert. Gemini etwa zeigt Warnhinweise an, dass die von der KI erstellten Passwörter nicht für echte Konten genutzt werden sollten.
Lesen Sie auch
Aber: Forscher der ETH Zürich und der Università della Svizzera italiana haben herausgefunden, dass einige beliebte Passwort-Manager mit Sicherheitsproblemen zu kämpfen haben. Die betroffenen Hersteller arbeiten eigenen Angaben zufolge nach schon an der Behebung der identifizierten Schwachstellen.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
Künstliche Intelligenz
Amoklauf in Kanada: OpenAI hatte Hinweise auf mögliche Gefahr durch Täterin
Nach dem Amoklauf in der kanadischen Gemeinde Tumbler Ridge hat das Unternehmen OpenAI eingeräumt, bereits Monate vor der Tat auffälliges Verhalten der psychisch kranken Täterin in Chats mit ChatGPT festgestellt zu haben. Die Transfrau habe im Juni 2025 während mehrerer Tage über Waffengewalt geschrieben und diese Chats seien von automatischen Systemen bei OpenAI markiert worden, berichtet das Wall Street Journal (WSJ) unter Berufung auf mit dem Vorgang vertraute Personen.
Weiterlesen nach der Anzeige
Mitarbeiter hätten daraufhin diskutiert, den Vorgang den Behörden zu melden, heißt es weiter. Letztlich habe sich das Management aber dagegen entschieden. OpenAI habe den Account zwar gelöscht, aber keinen Anlass für die Hinzuziehung der Behörden gesehen, sagte ein Sprecherin dem WSJ. Aus den Chatverläufen habe sich keine „glaubhafte und unmittelbare Gefahr für die körperliche Unversehrtheit anderer“ ergeben.
Bluttat erschüttert kleine Gemeinde
Die Transfrau hat am 10. Februar in Tumbler Ridge in der westkanadischen Provinz British Columbia insgesamt acht Menschen getötet, die meisten davon Schulkinder im Alter von 11 bis 13 Jahren. Danach hat sich die 18-Jährige selbst getötet. Mehr als 20 Menschen wurden zudem bei dem Amoklauf verletzt. Die Tat gehört damit zu den blutigsten in der kanadischen Geschichte. Die betroffene Gemeinde Tumbler Ridge hat gerade einmal rund 2400 Einwohner und liegt am Osthang der Rocky Mountains, mehr als 1000 Kilometer nördlich von Vancouver.
Laut dem Bericht des Wall Street Journals hat OpenAI erst nach dem Bekanntwerden des Amoklaufs den Kontakt zur kanadischen Polizei gesucht. Das Unternehmen unterstütze die Ermittlungen, sagte die Sprecherin. Die KI-Modelle würden so trainiert, dass sie Nutzer und Nutzerinnen davon abhalten, in der realen Welt Schaden anzurichten. Im konkreten Fall seien die Chatverläufe von einem Prüfsystem automatisch gefunden und intern gemeldet worden. Beim Umgang mit solchen Hinweisen wäge man immer das Risiko von Gewalt gegen Datenschutzbedenken ab, zitiert die Zeitung noch. OpenAI hat demnach noch darauf hingewiesen, wie potenziell belastend „eine unnötige Einschaltung der Polizei“ für Einzelpersonen und Familien sei.
(mho)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
