Künstliche Intelligenz
Samsung rechnet mit Preiserhöhungen von Verbraucherprodukten
Der südkoreanische Technikkonzern Samsung rechnet mit Preiserhöhungen in der gesamten Elektronikindustrie. Davon betroffen seien auch Verbraucherprodukte. Das berichtete der Nachrichtendienst Bloomberg unter Berufung auf ein Interview mit Samsung-Marketingchef Wonjin Lee. Grund dafür seien gestiegene Produktionskosten infolge der fortbestehenden Engpässe bei Speicherchips.
Weiterlesen nach der Anzeige
Samsung selbst ist einer der weltweit größten Hersteller von Speicherchips. Das Unternehmen ist deshalb grundsätzlich besser positioniert als Konkurrenten ohne eigene Speicherchipherstellung, auch wenn Samsung-Schwesterunternehmen für Grabenkämpfe bekannt sind. Für das vierte Jahresquartal hat der Konzern bereits eine Verdreifachung des Betriebsgewinns prognostiziert. Dennoch wolle man die deutlich erhöhten Kosten für Speichermodule an Endkunden weiterreichen, betonte Lee im Gespräch am Rande der CES in Las Vegas. Zudem rechnet er mit weiteren Preissteigerungen bei Speicherchips.
Große Technikproduzenten wie Dell oder Xiaomi warnten zuvor bereits vor möglichen Preiserhöhungen ihrer Verbraucherprodukte. Andere Hersteller wie Lenovo, Asus oder MSI horten Speichermodule in Erwartung der sich zuspitzenden Knappheit. Auch Apple kündigte einen Großeinkauf bei Samsung an, um seine Margen halten zu können.
Preise für Speicherchips vervielfacht
Seit Monaten sind Speicherchips chronisch knapp, vor allem Dynamic Random Access Memory (DRAM) ist betroffen, aber auch NAND-Flash für SSDs sowie aufgelöteten Massenspeicher wie eMMC (embedded Multimedia Card). DRAM und NAND-Flash sitzen heutzutage in Milliarden von Elektronikgeräten, neben PCs, Servern und Smartphones auch in Fernsehern, Autos und Haushaltsgeräten.
Die Hauptursache für die Speicherchipknappheit liegt im Boom von künstlicher Intelligenz (KI). Weil weltweit riesige KI-Rechenzentren gebaut werden, ist die gesamte RAM-Produktion des Jahres 2026 bereits ausverkauft. Denn KI-Server schlucken große Mengen an DRAM-Chips. Der Bau neuer DRAM-Fertigungsanlagen kommt der enormen Nachfrage jedoch nicht hinterher. In Folge der Knappheit haben sich die Preise für Speichermodule seit Monaten vervielfacht. Allein zwischen Ende November und Anfang Dezember stiegen die Kosten für DDR5-Arbeitsspeicher um rund 50 Prozent.
Weiterlesen nach der Anzeige
(rah)
Künstliche Intelligenz
Türkei: Restriktionen für Instagram, YouTube und Co. geplant
Die Türkei leitet Untersuchungen der Online-Dienste TikTok, Instagram, YouTube, Facebook, X und Discord ein. Das gab die türkische Datenschutzbehörde am Freitag bekannt. Geprüft werden soll dabei, wie die Plattformen Kinder und Jugendliche vor Risiken im Netz schützen und wie sie mit ihren Daten umgehen.
Weiterlesen nach der Anzeige
Die Untersuchungen erfolgen vor dem Hintergrund weitreichender Regulierungen des Online-Zugangs für Minderjährige in der Türkei. Künftig sollen Social-Media-Konten erst ab einem Alter von 15 Jahren angelegt werden können, berichtet die regierungsnahe Hürriyet Daily News. Vorher dürfe der Zugang nicht möglich sein. Für Menschen zwischen 15 und 18 Jahren seien zudem biometrische Restriktionen geplant.
Die Verantwortung dafür wolle der Staat an die Plattformen selbst abgeben. Bei Verstößen könnte etwa die Internet-Bandbreite der Dienste zeitweise reduziert werden. Erst im vergangenen Jahr wurden einige Dienste im Land als Antwort auf Proteste vorübergehend stark eingeschränkt.
Auch eine Klarnamenpflicht und die Überprüfung der Identität per Telefonnummer oder Ausweis sollen demnach eingeführt werden. Das geplante „Familienpaket“ enthält zudem die Möglichkeit, Social-Media-Inhalte ohne gerichtlichen Beschluss zu entfernen, so das Nachrichtenportal Turkish Minute. Eine entsprechende Gesetzesvorlage der Regierungspartei AKP wird innerhalb der nächsten Tage erwartet.
Ähnliche Maßnahmen auch in Deutschland?
Auch in Deutschland gibt es Diskussionen über ähnliche Maßnahmen. Diese werden mit dem Jugendschutz begründet. Der CDU-Parteitag hat am Wochenende etwa beschlossen, dass die Bundesregierung ein Social-Media-Verbot für Menschen unter 14 Jahren auf den Weg bringen soll. Die SPD hatte sich als Koalitionspartnerin im Vorfeld ebenfalls für diese Altersgrenze ausgesprochen. Kinder und Jugendliche unter 14 Jahren sollen demnach keinen Zugriff auf Social-Media-Plattformen haben. Zwischen 14 und 16 Jahren sollen sie zudem nur Jugendversionen der Dienste nutzen können. Die von Bundeskanzler Friedrich Merz geforderte Klarnamenpflicht ist dagegen vorerst vom Tisch.
Weiterlesen nach der Anzeige
()
Künstliche Intelligenz
Mit ChatGPT erstellte Passwörter sind nicht sicher
Auf den ersten Blick mag es als sinnvolle Idee erscheinen, KI-Chatbots mit der Erstellung von sicheren Passwörtern zu beauftragen. Doch das dürfte sich schnell als gefährlicher Irrtum herausstellen, wie Sicherheitsforscher warnen.
Weiterlesen nach der Anzeige
KI mit eingebauter Schwachstelle
Entsprechenden Tests der Firma Irregular zufolge lassen sich die per KI erstellten Passwörter nämlich leicht knacken – und das, obwohl sie für Laien durchaus sicher aussehen. Das Problem: Große Sprachmodelle (LLM), auf denen ChatGPT, Gemini oder Claude basieren, haben in diesem Zusammenhang eine eingebaute Schwachstelle.
Denn diese KI-Systeme sind darauf optimiert, vorhersehbare und plausible Ergebnisse zu generieren. Das sei mit einer sicheren Passworterzeugung nicht kompatibel, warnen die Experten. Oder einfacher gesagt: LLMs können keinen echten Zufall, da sie Zeichenfolgen anhand von Wahrscheinlichkeiten und den integrierten Trainingsdaten ausgeben.
Zeichenfolgen an vorhersehbaren Stellen
Dabei erzeugen die KI-Chatbots zwar Passwörter, die aussehen wie sichere Zeichenfolgen mit Sonderzeichen und Zahlen. Allerdings würden diese oft an identischen und damit vorhersehbaren Stellen platziert, so die Experten. Ein kryptografisch sicheres Passwort habe eine Entropie von rund 98 Bit. Die KI-generierten Passwörter haben in den Tests dagegen nur rund 27 Bit erreicht. Das bedeute, dass Hacker die KI-Passwörter per Brute-Force-Attacke selbst mit normalen Computern innerhalb von Stunden statt Jahrzehnten knacken könnten.
Getestet haben die Sicherheitsforscher Anthropics Claude Opus 4.6, OpenAIs GPT-5.2 und Googles Gemini 3 Flash. Bei allen drei KI-Systemen hätten sich feste Strukturen gezeigt, etwa identische Anfänge und nur geringe Variationen bei der Zeichenauswahl.
Muster in Open-Source-Code
Weiterlesen nach der Anzeige
Den Forschern zufolge ist das Problem längst nicht mehr theoretisch, sondern habe längst seinen Niederschlag in der Softwareentwicklung gefunden. So seien die identifizierten Muster in Open-Source-Code auf GitHub gefunden worden. Das sogenannte Vibe-Coding könne dadurch zum gefährlichen Einfallstor für Cyberangriffe werden.
Experten raten daher zur Nutzung von Passwort-Managern, die auf kryptografisch sichere Pseudozufallszahlengeneratoren setzen. Einige KI-Anbieter haben derweil schon auf die potenzielle Gefahr reagiert. Gemini etwa zeigt Warnhinweise an, dass die von der KI erstellten Passwörter nicht für echte Konten genutzt werden sollten.
Lesen Sie auch
Aber: Forscher der ETH Zürich und der Università della Svizzera italiana haben herausgefunden, dass einige beliebte Passwort-Manager mit Sicherheitsproblemen zu kämpfen haben. Die betroffenen Hersteller arbeiten eigenen Angaben zufolge nach schon an der Behebung der identifizierten Schwachstellen.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
Künstliche Intelligenz
Amoklauf in Kanada: OpenAI hatte Hinweise auf mögliche Gefahr durch Täterin
Nach dem Amoklauf in der kanadischen Gemeinde Tumbler Ridge hat das Unternehmen OpenAI eingeräumt, bereits Monate vor der Tat auffälliges Verhalten der psychisch kranken Täterin in Chats mit ChatGPT festgestellt zu haben. Die Transfrau habe im Juni 2025 während mehrerer Tage über Waffengewalt geschrieben und diese Chats seien von automatischen Systemen bei OpenAI markiert worden, berichtet das Wall Street Journal (WSJ) unter Berufung auf mit dem Vorgang vertraute Personen.
Weiterlesen nach der Anzeige
Mitarbeiter hätten daraufhin diskutiert, den Vorgang den Behörden zu melden, heißt es weiter. Letztlich habe sich das Management aber dagegen entschieden. OpenAI habe den Account zwar gelöscht, aber keinen Anlass für die Hinzuziehung der Behörden gesehen, sagte ein Sprecherin dem WSJ. Aus den Chatverläufen habe sich keine „glaubhafte und unmittelbare Gefahr für die körperliche Unversehrtheit anderer“ ergeben.
Bluttat erschüttert kleine Gemeinde
Die Transfrau hat am 10. Februar in Tumbler Ridge in der westkanadischen Provinz British Columbia insgesamt acht Menschen getötet, die meisten davon Schulkinder im Alter von 11 bis 13 Jahren. Danach hat sich die 18-Jährige selbst getötet. Mehr als 20 Menschen wurden zudem bei dem Amoklauf verletzt. Die Tat gehört damit zu den blutigsten in der kanadischen Geschichte. Die betroffene Gemeinde Tumbler Ridge hat gerade einmal rund 2400 Einwohner und liegt am Osthang der Rocky Mountains, mehr als 1000 Kilometer nördlich von Vancouver.
Laut dem Bericht des Wall Street Journals hat OpenAI erst nach dem Bekanntwerden des Amoklaufs den Kontakt zur kanadischen Polizei gesucht. Das Unternehmen unterstütze die Ermittlungen, sagte die Sprecherin. Die KI-Modelle würden so trainiert, dass sie Nutzer und Nutzerinnen davon abhalten, in der realen Welt Schaden anzurichten. Im konkreten Fall seien die Chatverläufe von einem Prüfsystem automatisch gefunden und intern gemeldet worden. Beim Umgang mit solchen Hinweisen wäge man immer das Risiko von Gewalt gegen Datenschutzbedenken ab, zitiert die Zeitung noch. OpenAI hat demnach noch darauf hingewiesen, wie potenziell belastend „eine unnötige Einschaltung der Polizei“ für Einzelpersonen und Familien sei.
(mho)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
