Künstliche Intelligenz
Sony stoppt Auslieferung von Speicherkarten
Seit dem 27. März 2026 nimmt Sony keine Bestellungen von Wiederverkäufern für einen Großteil seiner Speicherkarten in den Bauformen SD und CF-Express Typ A oder B mehr an. Auch im eigenen Onlineshop von Sony Japan können die Karten nicht mehr von Verbrauchern direkt erworben werden. Als Grund nennt das Unternehmen einen weltweiten Mangel an Speicherbausteinen und anderen Halbleitern. Die globale Speicherkrise, ausgelöst durch einen rasanten Bau von KI-Rechenzentren, hat damit auch Fotografen und Filmer erreicht. In dieser Woche hatte Sony bereits den Preis der Playstation 5 erhöht.
Weiterlesen nach der Anzeige
Wie das Unternehmen in seiner Mitteilung schreibt, wolle man die Bestellmöglichkeiten nur vorübergehend aussetzen. Wann diese Maßnahme aufgehoben werden könnte, gibt Sony nicht an. Man wolle das gegebenenfalls auf den Produktseiten der Karten bekanntgeben, heißt es. Dass die Produktion eingestellt wäre, geht aus Sonys Mitteilung nicht ausdrücklich hervor – das ist aber naheliegend, wenn die nötigen Bauteile, insbesondere Flash-Speicherchips, nicht verfügbar sind. Diese werden seit Monaten von Hyperscalern zu nahezu jedem Preis aufgekauft, Marktbeobachter rechnen für das erste Quartal 2026 mit einem Preisanstieg von 60 Prozent, was sich fortsetzen soll. Schon seit dem Herbst 2025 haben sich die Preise für SSDs mit NAND-Flash verdoppelt bis verdreifacht.
Sony nennt als nun nicht mehr verfügbare Produkte fast sein gesamtes Angebot an Speicherkarten. Darunter sind die CF-Express-Karten der „Tough“-Serie im Typ A mit Größen von 240 bis 1920 GByte und die Typ-B-Karten mit 240 und 480 GByte. Gleiches gilt für SDXC- und SDHC-Karten der Tough-Serie von 128 bis 512 GByte und andere SD-Stecklinge anderer Serien. Nicht genannt sind bisher eine einzelne CF-Express-B-Karte der Tough-Reihe mit 960 GByte sowie die langsamste SD-Serie mit dem Kürzel „SF-UZ“. Ob es sich dabei um ein Versehen handelt, ist noch unklar.
Speicherkarten teils bereits doppelt so teuer
Bei europäischen Versendern sind die nun ausgesetzten Sony-Karten laut heise Preisvergleich noch gut verfügbar und nicht nennenswert teurer geworden – das könnte sich bald ändern. Andere Speicherkarten, etwa die beliebte Sandisk Extreme Pro UHS-I mit 128 GByte (ab 32,90 €), sind seit Tiefstständen im Sommer 2025 mehr als doppelt so teuer geworden. Gleiches gilt für die meisten Micro-SD-Karten, die etwa in Smartphones, Tablets und Drohnen zum Einsatz kommen und per Adapter auch in größere Kameras passen.
Für Fotografen und Filmer mit modernsten Kameras kann vor allem die absehbar schlechte Verfügbarkeit von CF-Express-Karten zum Problem werden. Die hohen Serienbildraten von bis zu 120 fps im Raw-Format bei der Sony A9 III lassen sich nur mit den auf PCI-Express basierenden Karten erreichen. Gleiches gilt für aktuelle Kameras anderer Hersteller. Zur schnellen Materialsicherung am Set sind die fixen Speicher auch in der Filmproduktion zunehmend beliebt.
Lesen Sie auch
Update
29.03.2026,
18:23
Uhr
Im Onlineshop von Sony Deutschland sind die genannten CF-Express-Karten noch erhältlich. Sie sollen sofort lieferbar sein, allerdings zu Preisen, die weit über anderen Angeboten liegen.
(nie)
Künstliche Intelligenz
iX-Workshop: IT-Sicherheit nach ISO 27001 – Herausforderungen und Chancen
Sie planen die Einführung eines Information Security Management Systems (ISMS) nach ISO 27001 oder stehen bereits mitten in der Umsetzung? Im interaktiven iX-Workshop IT-Sicherheit nach ISO 27001 und NIS2-Anforderungen umsetzen erhalten Sie eine fundierte Einführung in die Anforderungen der internationalen Norm und lernen praxisnahe Ansätze für die erfolgreiche Umsetzung im Unternehmen kennen.
Weiterlesen nach der Anzeige
Der Workshop vermittelt Ihnen die zentralen Grundlagen eines ISMS nach ISO 27001 und zeigt, wie Sie diese strukturiert in der Praxis umsetzen können. Dabei werden auch die aktuellen regulatorischen Anforderungen der NIS2-Richtlinie berücksichtigt, sodass Sie beide Themenfelder sinnvoll miteinander verbinden können.
Sie erhalten einen klaren Überblick über Gemeinsamkeiten und Unterschiede von ISO 27001 und dem NIS2-Umsetzungsgesetz (NIS2UmsuCG) und lernen, wie Sie diese Anforderungen bereits in der Planungsphase Ihres ISMS berücksichtigen können.
Das Gelernte praktisch anwenden
Der zweitägige Workshop ist interaktiv aufgebaut und kombiniert theoretische Grundlagen mit praxisnahen Gruppenarbeiten und Diskussionen. Sie erarbeiten zentrale Schritte der ISMS-Einführung, lernen typische Projektphasen kennen und setzen sich mit häufigen Herausforderungen und Fallstricken in der Umsetzung auseinander. Dabei stehen konkrete Aufgaben der Projektplanung, Strukturierung und Implementierung im Mittelpunkt.
Durch den aktiven Austausch in der Gruppe entwickeln Sie ein besseres Verständnis für typische Umsetzungsszenarien und können die Inhalte direkt auf Ihre eigene Organisation übertragen.
|
Juli 01.07. – 02.07.2026 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 03. Jun. 2026 |
|
Oktober 06.10. – 07.10.2026 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 08. Sep. 2026 |
Von Erfahrungen aus der Praxis lernen
Weiterlesen nach der Anzeige
Sie profitieren von der gemeinsamen Expertise Ihrer Trainer Ann-Kathrin Rechel und Viktor Rechel, beide leitende Cybersicherheitsberater bei der secuvera GmbH. Sie begleiten Unternehmen regelmäßig bei der Einführung und Weiterentwicklung von Informationssicherheitsmanagementsystemen und verfügen über umfassende Erfahrung in der praktischen Umsetzung von ISO-27001- und NIS2-Anforderungen. Im Workshop vermitteln sie praxisnahe Einblicke aus realen Projekten und zeigen, wie sich ISMS-Strukturen effizient, nachvollziehbar und normkonform in Unternehmen etablieren lassen.
Für wen ist dieser Workshop geeignet?
Der Workshop richtet sich an Informationssicherheitsbeauftragte, IT-Mitarbeitende sowie Führungskräfte, die ein ISMS nach ISO 27001 einführen oder weiterentwickeln möchten und dabei auch regulatorische Anforderungen wie NIS2 berücksichtigen müssen.

(ilk)
Künstliche Intelligenz
KI-Modelle gegen klassische Wettervorhersage: Wer liefert die bessere Prognose?
Regnet es am Wochenende oder scheint die Sonne? Instabile Wetterlagen wie jetzt gerade machen die Wettervorhersage besonders unzuverlässig. Wie KI-Modelle hier Abhilfe schaffen – und wo ihre Grenzen liegen.
Weiterlesen nach der Anzeige
Ein langes Mai-Wochenende steht an – eigentlich ideal für Freiluftaktivitäten. Aber wird tatsächlich die Sonne scheinen? Wer diese Frage derzeit mit Wetter-Apps auf dem Smartphone beantwortet, wird oft enttäuscht. KI-Modelle wie Graphcast von Google, Aurora von Microsoft oder Pangu Weather von Huawei versprechen ähnlich gute oder sogar bessere Ergebnisse, die wesentlich schneller berechnet werden.
Was ist der Unterschied zwischen konventionellen Modellen und KI-Modellen? Was taugen die neuen Modelle und wo werden sie eingesetzt? Und können Sie KI-Modelle nutzen, um das lange Wochenende vielleicht doch mit ein wenig mehr Sicherheit zu planen? Wir beantworten die wichtigsten Fragen.
Wie funktionieren Wettervorhersagen?
Konventionelle Wettermodelle beschreiben die zeitliche – also zukünftige – Entwicklung von Druck, Temperatur und Luftfeuchtigkeit ausgehend von aktuell gemessenen Werten mithilfe von physikalischen Gleichungen.
Der britische Mathematiker Lewis Fry Richardson kam bereits Anfang des zwanzigsten Jahrhunderts auf die Idee, dass es möglich sein müsste, mithilfe von physikalischen Gesetzmäßigkeiten das Wetter vorherzusagen. Bis dahin verließen sich die Meteorologen weitgehend auf Erfahrung und Beobachtung und entwickelten empirische Modelle auf der Basis der Entwicklung ähnlicher, bekannter Wetterlagen. Weil es damals aber noch keine Computer gab, musste Richardson seine Berechnungen von Hand durchführen – was länger dauerte als die Reichweite seiner Vorhersage. Außerdem waren die Messdaten, die er in seine Berechnungen steckte, äußerst lückenhaft. Seine Vorhersagen für Luftdruckänderungen lagen also weit neben den tatsächlichen Messungen. Die Arbeiten gelten dennoch als bahnbrechend für die moderne Meteorologie.
Die physikalischen Gleichungen geben an, wie stark sich Größen wie Luftdruck, Temperatur und Luftfeuchtigkeit in Abhängigkeit voneinander ändern – das ergibt miteinander gekoppelte Differenzialgleichungen. Um zu berechnen, wie das Wetter wird, müssen diese Gleichungen numerisch integriert werden. Das passiert an den Knotenpunkten eines räumlichen Gitters in festen Zeitschritten. Wie präzise ein Wettermodell ist, hängt also davon ab, wie klein das Raster ist. Allerdings steigt auch der Rechenaufwand, je engmaschiger das Gitter ist.
Regionale Wettermodelle mit kleinen Gitter-Abständen berechnen daher in der Regel nur kurzfristige Vorhersagen. Das Wettermodell COSMO-DE des Deutschen Wetterdienstes etwa verwendet ein Raster von 2,8 × 2,8 Kilometer mit 50 Höhenschichten. Wolken, die jedoch meist kleiner als solche Zellen sind, müssen daher „parametrisiert“ werden – sie tauchen nur in der Anpassung einzelner Modellparameter auf. Deshalb sind Vorhersagen auch immer dann besonders ungenau, wenn sich in einer größeren Luftströmung kleinräumige Störungen befinden.
Weiterlesen nach der Anzeige
Vorhersagehorizont 14 Tage
Je weiter eine Wettervorhersage in die Zukunft rechnet, desto mehr addieren sich zudem Fehler und Ungenauigkeiten. Ein Vorhersagehorizont von 14 Tagen gilt noch immer als eine Art Schallmauer.
Die Regel, dass Wettervorhersagen nur etwa bis 14 Tage brauchbar sind, geht auf den amerikanischen Mathematiker und Meteorologen Edward Lorenz zurück. Lorenz untersuchte Anfang der 1960er Jahre die Möglichkeiten der numerischen Wettervorhersage in einem stark vereinfachten System – einer sogenannten Konvektionszelle. Das ist ein Luftvolumen, das von unten gleichmäßig erwärmt wird. Die warme Luft steigt auf, kühlt ab und strömt dann wieder nach unten. Dabei entdeckte er, dass schon kleine Ungenauigkeiten in den Anfangswerten nach einiger Zeit große Ungenauigkeiten in der Vorhersage bewirkten. Lorenz vermutete daher, dass auch bei beliebig genau gemessenen Anfangswerten der Zeithorizont der Vorhersage begrenzt sein würde. Die Chaostheorie lieferte später die theoretische Unterfütterung für diesen sogenannten „Schmetterlingseffekt“. Kurz: Wettermodelle sind chaotische Systeme.
Künstliche Intelligenz
Digitale Souveränität: Verfassungsschutz kauft europäische Palantir-Alternative
Der deutsche Inlandsgeheimdienst macht Ernst beim Thema digitale Souveränität: Das Bundesamt für Verfassungsschutz (BfV) hat eine neue Software zur Analyse großer Datenmengen erworben. Nach Informationen von WDR, NDR und Süddeutscher Zeitung fiel die Wahl dabei nicht auf den umstrittenen US-Marktführer Palantir, der seit Jahren massiv in den deutschen Sicherheitsmarkt drängt. Vielmehr habe das französische Unternehmen ChapsVision den Zuschlag erhalten.
Weiterlesen nach der Anzeige
Damit will die Bonner Behörde laut den Berichten gezielt ein Zeichen gegen die technologische Abhängigkeit von US-Anbietern setzen, die vielen Sicherheitsbehörden zunehmend übel aufstößt. BfV-Präsident Sinan Selen deutete diesen Kurs bereits Ende 2025 auf einer internen Konferenz in Berlin an. Er hob damals hervor, für die Sicherheit sei entscheidend, geostrategisch richtige Entscheidungen zu treffen und den europäischen Fokus zu schärfen. Es gelte, die Souveränität zu stärken und Alternativen zu bieten, statt sich in langfristige Abhängigkeiten zu begeben.
Mit dem Kauf des Produkts der Firma ChapsVision, die dem Tech-Unternehmer Olivier Dellenbach gehört, setzt das Amt diese Ankündigung nun in die Praxis um.
Französische KI statt US-Import
Die auserwählte Softwarelösung trägt den Namen ArgonOS und arbeitet mit Künstlicher Intelligenz (KI). Sie ist darauf spezialisiert, riesige Datenmengen zu durchforsten, Informationen aus unterschiedlichen Datenbanken miteinander in Beziehung zu setzen und komplexe Netzwerke sichtbar zu machen.
Neben der klassischen Datenbankanalyse beherrscht das System auch die Recherche in offen zugänglichen Quellen alias Open Source Intelligence (OSINT). In Frankreich wird die Software bereits erfolgreich vom dortigen Inlandsgeheimdienst DGSI eingesetzt. Für den deutschen Markt kooperiert ChapsVision mit dem IT-Dienstleister Rola Security Solutions, der auch in den Polizeilichen Informations- und Analyseverbunds (PIAV) eingebunden ist.
Aus Kreisen des Verfassungsschutzes heißt es der Recherche zufolge, dass die Phase des Machbarkeitsnachweises schon erfolgreich abgeschlossen worden sei. Die Software gelte als einsatzbereit und solle vor allem in der Terrorismusbekämpfung und der Spionageabwehr wertvolle Dienste leisten. Derzeit werde das System allerdings noch in einem rechtlich eng begrenzten Rahmen genutzt, da die volle Ausschöpfung der Analysefunktionen auch von der geplanten Reform des Nachrichtendienstrechts abhänge. Das Bundesinnenministerium (BMI) arbeitet seit geraumer Zeit an einer Novelle, die dem BfV erweiterte Kompetenzen bei der Nutzung von KI und Gesichtserkennung einräumen soll.
Politischer Richtungsstreit im Innenbereich
Weiterlesen nach der Anzeige
Die Entscheidung des BfV sorgt für politischen Zündstoff: Sie legt den Riss innerhalb der Bundesregierung in der Palantir-Frage offen. Die Sicherheitsbehörden selbst und weite Teile der schwarz-roten Koalition drängen auf europäische Lösungen. Bundesinnenminister Alexander Dobrindt (CSU) hält die Tür für den US-Anbieter aber weiter offen. Kritik kommt hier vor allem von den Grünen im Bundestag. Fraktionsvize Konstantin von Notz hält es für sicherheitspolitisch blauäugig, sich von einem Unternehmen wie Palantir abhängig zu machen: Dessen Gründer Peter Thiel sei durch demokratiekritische Aussagen und seine Nähe zur Trump-Administration aufgefallen.
Auch innerhalb der Sicherheitsarchitektur wächst der Widerstand gegen US-Software. Neben dem BfV haben sich zuletzt auch das Bundeskriminalamt und Teile der Bundeswehr skeptisch gegenüber Palantir geäußert. Sie sorgen sich, dass sensible Daten abfließen und die Kontrolle über die kritische Infrastruktur verloren gehe. Bayern und Hessen setzen weiter auf Palantir. In anderen Bundesländern zeichnet sich ein Umdenken ab: Baden-Württemberg diskutiert offen den Ausstieg, auch in Nordrhein-Westfalen steht die Zusammenarbeit auf dem Prüfstand.
Befürworter europäischer Alternativen wie der SPD-Innenpolitiker Sebastian Fiedler sehen in der Entscheidung des BfV einen Meilenstein für die nationale Sicherheitsstrategie. Leistungsfähige Analysewerkzeuge seien unabdingbar, dürften aber nicht die digitale Souveränität gefährden. Die erfolgreiche Implementierung der französischen Software beim Verfassungsschutz könnte so als Blaupause dienen und den Druck aufs BMI erhöhen, eine klare, europaorientierte Beschaffungsstrategie festzulegen.
(mki)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
