Künstliche Intelligenz
Signal will per Warnhinweis vor Phishing warnen
Der verschlüsselte Messenger Signal will nach Phishing-Attacken auf Politiker, Militärs und Journalisten in Deutschland zusätzliche Schutzmaßnahmen einführen. Wenn jemand zum ersten Mal eine Nachricht von einer unbekannten Nummer erhalte, würden künftig zusätzliche Warnhinweise angezeigt, sagte Meredith Whittaker, die Präsidentin der Non-Profit-Stiftung, die Signal betreibt, in einem Interview des Nachrichtenmagazins „Der Spiegel“.
Weiterlesen nach der Anzeige
Phishing-Angriffe gegen Mitglieder der Bundesregierung
Bei der jüngsten Phishing-Kampagne gegen Nutzer des beliebten Messenger-Dienstes standen vor allem Vertreter der Bundesregierung und der Regierungsparteien im Fokus. Betroffen waren unter anderem Bundestagspräsidentin Julia Klöckner (CDU) sowie die Kabinettsmitglieder Verena Hubertz (SPD) und Karin Prien (CDU). Verschiedene Sicherheitsexperten gehen davon aus, dass Angreifer aus Russland hinter der Cyberattacke stecken.
Whittaker betonte in dem Interview, der Messenger sei nicht gehackt worden. „Signal ist weiterhin sicher – unsere Verschlüsselung bleibt robust, und in unserem Open-Source-Code wurden keine Schwachstellen entdeckt. Wir sind durch unseren Erfolg offenbar zur Zielscheibe geworden, genauer gesagt durch unsere vielen hochrangigen Nutzerinnen und Nutzer.“ Diese seien durch Social Engineering manipuliert worden, Fehler zu begehen. „Das kann bei jedem Dienst passieren.“
Zusätzlicher Warnhinweis soll schützen
Die Signal-Chefin kündigte an, dass das Annehmen neuer, unbekannter Kontakte in Zukunft nicht mehr mit einem einzigen Klick möglich sein und zwingend einen Warnhinweis enthalten wird. „Wir prüfen noch weitere Ideen und werden dazu bald mehr bekannt geben. Und um es noch einmal klar zu sagen: Signal wird Nutzer niemals in einem zweiseitigen Chat kontaktieren, um sie nach ihrer PIN, ihrem Schlüssel oder anderen Informationen zu fragen.“
Auch, dass die Angreifer unter Namen wie „Signal Support“ auftraten, geriet in die Kritik. Das könne und wolle Signal aber nicht verhindern, sagte Whittaker. „Das ginge nur, wenn die App mitlesen und proaktiv Inhalte filtern würde.“ Ihr Dienste stehe schon jetzt unter „massivem Druck bestimmter Regierungen“ um „Inhalte zu scannen, bevor sie verschlüsselt werden“. Dem wolle man sich nicht beugen.
Weiterlesen nach der Anzeige
Signal kann auch Profilnamen nicht sehen
Prinzip bei Signal sei es, so Whittaker weiter, „möglichst wenig über unsere Nutzer oder gar deren Kommunikation zu wissen. Sie erfolgt verschlüsselt, auch für uns.“ Daher könne der Dienst nicht einmal Nutzernamen oder Kontakte einsehen.
Whittaker kritisierte, dass von der Phishing-Attacke betroffene Politikerinnen im Netz als digitale Analphabeten verunglimpft worden seien. „Das hat mich enttäuscht, aber nicht überrascht. Ich nehme in Teilen der Techszene durchaus eine gewisse Arroganz wahr, die nicht nett ist.“
Lesen Sie auch
(nie)
Künstliche Intelligenz
Am Ende der Sieger: Das Open Document Format ist der Standard
Vor 20 Jahren passierte für das Open Document Format die entscheidende ISO-Abstimmung: Anfang Mai 2006 billigten ISO und IEC das Format als künftigen internationalen Standard. Anschließend wurde ODF am 30. November 2006 als ISO/IEC 26300:2006 veröffentlicht. Damals wirkte das wie ein technisches Detail, heute erscheint es in einem anderen Licht. Regierungen und Behörden diskutieren wieder über digitale Souveränität, Plattformabhängigkeiten und Langzeitarchivierung. Plötzlich steht eine Frage erneut im Raum, die viele längst für entschieden hielten: Wem gehören digitale Dokumente eigentlich?
Weiterlesen nach der Anzeige
ODF ist dabei weit mehr als das Dateiformat von LibreOffice. Der Standard entstand aus der Idee, dass Dokumente dauerhaft lesbar, herstellerunabhängig nutzbar und technisch transparent sein sollen. Zwei Jahrzehnte später wirkt dieser Ansatz erstaunlich modern. Denn viele Probleme, die ODF lösen wollte, prägen heute erst recht den Alltag großer Organisationen: proprietäre Cloudplattformen, schwierige Datenmigrationen und die Frage, wie sich Informationen über Jahrzehnte hinweg archivieren lassen.
ODF war nie nur ein technisches Projekt. Das Format entwickelte sich früh zum Symbol im Konflikt zwischen offenen Standards und geschlossenen Ökosystemen – und zu einem der größten politischen Streitthemen der IT-Industrie der 2000er-Jahre.
Die Idee hinter ODF: Dokumente als offene Datenstrukturen
Anfang der 2000er dominierten proprietäre Binärformate die Office-Welt. Microsofts DOC-, XLS- und PPT-Dateien galten als faktische Industriestandards, doch ihre internen Strukturen waren nur teilweise dokumentiert. Wer vollständige Kompatibilität wollte, musste Microsoft Office kaufen.
ODF verfolgte einen anderen Ansatz. Das Format setzte konsequent auf XML und sollte vollständig offen spezifiziert sein. Inhalte, Formatierungen und Metadaten lagen getrennt voneinander vor. Ziel war nicht nur die Lesbarkeit für Menschen, sondern auch die automatisierte Verarbeitung durch Skripte oder Datenbanken.
Heute klingt das selbstverständlich. Anfang der 2000er gehörte es jedoch zu einem grundlegenden Paradigmenwechsel. XML galt damals als universelles Austauschformat für strukturierte Daten. ODF übertrug diese Idee auf Office-Dokumente.
Eine ODT-Datei besteht intern aus mehreren XML-Dateien. „content.xml“ enthält die eigentlichen Inhalte, „styles.xml“ die Formatdefinitionen. Metadaten liegen in „meta.xml“, anwendungsspezifische Einstellungen in „settings.xml“. Ein ZIP-Container fasst diese Bestandteile zusammen. Deshalb lässt sich eine ODT-Datei in „.zip“ umbenennen und mit jedem gewöhnlichen Packprogramm öffnen.
Weiterlesen nach der Anzeige
Die Architektur erinnert eher an moderne Webtechnologien als an klassische Office-Formate. Inhalte und Darstellung liegen getrennt vor – ähnlich wie HTML und CSS im Web. Diese Modularität erleichtert nicht nur die Analyse, sondern auch automatisierte Verarbeitung, Konvertierung und Archivierung.
Microsoft übernahm dieses Prinzip später für DOCX und XLSX. Auch Office Open XML basiert intern auf ZIP-Containern und XML-Dateien. Der Unterschied lag weniger in der Grundarchitektur als in der Frage, wie offen und interoperabel die Spezifikation tatsächlich ist.
Vom OpenOffice-Format zum ISO-Standard
Die Wurzeln von ODF liegen bei Sun Microsystems. Der damalige Eigentümer von StarOffice veröffentlichte den Quellcode 2000 als OpenOffice.org und brauchte ein standardisiertes Dateiformat für die freie Office-Suite.
2002 begann die Standardisierung bei OASIS, einem Industriekonsortium für offene Standards. Das Ziel war ein herstellerneutraler Dokumentstandard. 2005 verabschiedete OASIS ODF 1.0, 2006 folgte die ISO-Standardisierung als ISO/IEC 26300. Damit existierte erstmals ein vollständig offener internationaler Standard für Office-Dokumente.
Bemerkenswert ist aus heutiger Sicht, wie früh dabei Themen aufkamen, die inzwischen wieder unter dem Schlagwort „digitale Souveränität“ verhandelt werden. Schon damals argumentierten Befürworter, Staaten dürften ihre Dokumente nicht an einzelne Hersteller binden. Dokumentformate bestimmen schließlich, welche Software eine Organisation einsetzen muss und wie zugänglich Daten langfristig bleiben.
Behörden müssen Dokumente oft mehrere Jahrzehnte aufbewahren. Herstellergebundene Formate bergen dabei erhebliche Risiken: Spezifikationen ändern sich, Softwareprodukte verschwinden, Lizenzmodelle wechseln. Hinzu kommt: Wandern Dokumente in Cloudplattformen, entwickeln sich deren technische Grundlagen oft außerhalb der Kontrolle staatlicher Institutionen weiter. Ein offenes Format sollte dieses Problem entschärfen.
Künstliche Intelligenz
iX-Workshop: KI für eigene Daten: RAG in der Praxis mit LangChain.js
Retrieval Augmented Generation (RAG) kombiniert die Stärken von Textgenerierung und Information Retrieval, um präzise und kontextreiche Antworten auf komplexe Anfragen zu ermöglichen. Damit können Entwickler komplexe Anwendungen erstellen und die Leistungsfähigkeit moderner KI-Modelle voll ausschöpfen.
Weiterlesen nach der Anzeige
In unserem dreitägigen interaktiven Workshop KI für eigene Daten: Retrieval Augmented Generation (RAG) in der Praxis mit LangChain.js erhalten Sie eine fundierte Einführung in die Architektur und technischen Grundlagen von RAG sowie den Einsatz von LangChain.js. Sie lernen, wie Sie eigene KI-Lösungen auf Basis dieses Patterns entwickeln und diese sowohl in Cloud- als auch in On-Premise-Umgebungen implementieren.
Darüber hinaus erfahren Sie, wie Sie Prompts gezielt optimieren, KI-Anwendungen strukturiert aufbauen und eigene Datenquellen effizient in KI-Modelle integrieren. Sie lernen den Umgang mit APIs wie OpenAI und Azure OpenAI und entwickeln ein Verständnis für zentrale technische Aspekte moderner KI-Integrationen.
Jede Menge Praxis und Übungen
Der Workshop ist konsequent praxisorientiert aufgebaut und bietet eine interaktive Lernumgebung, in der Sie die Inhalte direkt umsetzen.
Sie entwickeln eigene KI-Agenten – von der Konzeption über die Implementierung bis hin zu realistischen Testszenarien. Dabei setzen Sie sowohl Cloud- als auch On-Premise-Umgebungen ein und lernen, wie sich RAG-basierte Systeme stabil und skalierbar betreiben lassen.
Durch die enge Verzahnung von Theorie und Praxis gewinnen Sie ein tiefes Verständnis für den Aufbau produktionsreifer KI-Anwendungen.
|
Juli 06.07. – 08.07.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 08. Jun. 2026 |
|
November 09.11. – 11.11.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 12. Okt. 2026 |
Von Erfahrungen aus der Praxis profitieren
Weiterlesen nach der Anzeige
Sie profitieren von der direkten Anleitung durch Ihren Trainer Gregor Biswanger, führender Experte für generative KI, Microsoft MVP für Azure AI und Web-App-Development.
Er arbeitet eng mit dem Microsoft-Produktteam rund um GitHub Copilot zusammen und begleitet Unternehmen bei der Entwicklung und Einführung moderner KI-Lösungen. Im Workshop vermittelt er praxisnahe Einblicke aus realen Projekten und zeigt, wie sich RAG-Architekturen effizient und produktionsreif umsetzen lassen.
Für wen ist dieser Workshop geeignet?
Der Workshop richtet sich an Entwickler, die ihre Fähigkeiten im Bereich moderner KI-Technologien erweitern und praxisnahe Erfahrung mit RAG-Systemen sammeln möchten. Er eignet sich sowohl für Einsteiger in die KI-Entwicklung als auch für erfahrene Entwickler, die ihr Wissen gezielt vertiefen wollen.

(ilk)
Künstliche Intelligenz
Pulitzer-Tränen und Gebühren-Ärger – die Fotonews der Woche 19/2026
Bestimmte Bilder treffen einen wie ein Schlag. So wie die Pulitzer-preisgekrönte Fotoserie von Jahi Chikwendiu: Ein junges Paar begrüßt sein erstes Kind, während der Vater im Sterben liegt. Tanner Martin war gerade 25, als er 2020 die Diagnose Darmkrebs im Endstadium erhielt. Seine Tochter kam am 17. Mai 2025 zur Welt, keine sechs Wochen später starb er. Chikwendius Schwarz-Weiß-Aufnahmen dokumentieren diese letzten gemeinsamen Monate mit einer Intensität, die einem sofort Tränen in die Augen treibt.
Weiterlesen nach der Anzeige
(Bild: heise )
Wenn Bilder mehr sagen als tausend Worte
Die Jury nannte es ein „herzzerreißendes und schmerzlich schönes Fotoessay“. Das trifft es. Chikwendiu, ehemals bei der Washington Post – die im Februar 30 Prozent ihrer Belegschaft entließ, darunter alle Fotografen –, hat mit dieser Serie auf ein wachsendes Problem aufmerksam gemacht: Krebs bei jungen Erwachsenen nimmt zu, besonders bei Frauen. Die Gründe sind unklar, Experten vermuten jedoch Lebensstilfaktoren und Umwelteinflüsse.
Chikwendius Arbeit zeigt, dass Fotografie nicht nur dokumentiert, sondern auch Bewusstsein schafft – und das auf eine Weise, wie es keine Statistik jemals könnte. Die vollständige Serie findet sich auf der Website des Pulitzer-Preises.
Copyright-Gebühren: Das US-Amt greift zu
Von bewegenden Bildern zu bewegten Gemütern: Das US Copyright Office plant, die Gebühren für Fotografie-Registrierungen um satte 55 Prozent anzuheben – von 55 auf 85 Dollar. Die Begründung? Inflation und gestiegene Kosten. Das Amt argumentiert, dass bei maximaler Ausnutzung der Gruppenregistrierung (750 Bilder) die Kosten nur 0,11 Dollar pro Foto betragen würden. Klingt vernünftig, oder?
Nicht für die National Press Photographers Association (NPPA). Deren Rechtsberater Mickey Osterreicher und Alicia Calzada haben dem Copyright Office ordentlich die Leviten gelesen. Ihr Hauptargument: Diese Pro-Bild-Rechnung geht an der Realität vorbei. Fotografen registrieren ihre Werke in Massen, weil sie nicht vorhersehen können, welche Bilder später verletzt oder wertvoll werden. Die Kosten trägt man also für alle, nutzen tut es nur für wenige. Eine Umfrage der Copyright Alliance zeigt: 44 Prozent der Kreativen haben in den vergangenen fünf Jahren nichts registriert – Hauptgrund? „Zu teuer.“
Weiterlesen nach der Anzeige
Die NPPA fordert das Amt auf, die Erhöhung zu verschieben, bis die seit acht Jahren versprochene Modernisierung des Registrierungssystems abgeschlossen ist. Und vielleicht mal mit echten Fotografen zu reden, statt nur Tabellen zu wälzen.
c’t Fotografie Zoom In abonnieren
Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Die KI-Eule, die zu viel wusste
Apropos Realität: Der National Wildlife Federation (NWF) ist ein peinlicher Fehler unterlaufen. Das Gewinnerbild ihres „Garden for Wildlife“-Wettbewerbs zeigte eine Eule vor Polarlichtern – und war entweder ein Composite oder KI-generiert. Oder beides. Die Fotografin Liz Tran rechnete bei petapixel vor: Um Polarlichter so zu fotografieren, braucht man mindestens 10 Sekunden Belichtungszeit. In dieser Zeit bleibt keine Eule scharf. Und dann waren da noch die anatomisch unmöglichen Eulenfüße mit vier nach vorne zeigenden Krallen.
Zunächst reagierte die NWF mit Wortspielen auf Instagram – „No AI here, just T(Al)ented photographers!“ –, was die Fotografen-Community verständlicherweise nicht lustig fand. Nach massivem Druck disqualifizierte die Organisation das Bild als „Composite“. Dass die Gewinnerin Kellie Carter praktisch keine Online-Präsenz hat und angeblich schon früher fragwürdige Bilder eingereicht hatte, macht die Sache nicht besser.
Die NWF hat inzwischen den Zweitplatzierten zum Gewinner erklärt und verspricht, die Prüfverfahren zu verschärfen. Dass die Teilnahme 15 bis 25 Dollar kostet, macht die Geschichte noch bitterer – Fotografen zahlten dafür, betrogen zu werden.
Nikons neues Super-Tele mit Trick
Zu guter Letzt noch eine erfreuliche Nachricht: Nikon hat die Entwicklung des Nikkor Z 120-300mm f/2.8 TC VR S bestätigt. Das Besondere: ein eingebauter 1,4x-Telekonverter, der die Brennweite auf bis zu 420 Millimeter erweitert. Mit durchgehender f/2.8-Blende und S-Line-Qualität richtet sich das Objektiv klar an Profis, die bei Sport- und Wildlife-Aufnahmen Flexibilität brauchen.
Der Preis? Noch nicht bekannt, aber wenn Nikons 400mm f/2.8 TC VR S bei rund 14.600 Euro startet, wird dieses Glas wohl kaum ein Schnäppchen. Immerhin: Wer sich das leisten kann, bekommt ein Werkzeug, das zwei Objektive in einem vereint – ohne Objektivwechsel mitten im entscheidenden Moment.
Eine Liebeserklärung an den Analog-Laden
Wer nach so vielen Aufregern noch Lust auf etwas Wohltuendes hat, dem sei diese Woche ein 15-minütiger Kurzfilm ans Herz gelegt: „Blue Moon – Your First and Last Camera Store“ von Filmemacher Mike Marchlewski. Er porträtiert einen Laden, der so eigensinnig wie liebenswert ist – und der gerade in Zeiten von KI-Eulen und Klick-Fotografie wie aus der Zeit gefallen wirkt.
2001 eröffnete Jake Shivery Blue Moon Camera and Machine im Portlander Stadtteil St. John’s. Damals gab es bereits elf weitere Fotoläden in der Stadt, doch Shivery wagte den Schritt trotzdem. Der Start war ernüchternd – bis ein Zeitungsartikel an Heiligabend für den Durchbruch sorgte und seither, so Shivery, der Laden nicht mehr zur Ruhe gekommen sei.
Was Blue Moon besonders macht, ist nicht eine einzelne Sache, sondern die Summe: gebrauchte Kameras, neuer Film, Entwicklung und Abzüge, ein internationales Kameramuseum – und vor allem eine Haltung. In seinem Manifest verspricht der Laden nichts Geringeres als die „vollständige Wiederherstellung der taktilen Sinne“ und versteht Analogfotografie als Technik und Lebenshaltung – als Bekenntnis zu Sorgfalt statt Bequemlichkeit.
Besonders schön: Der Kurzfilm wurde, mit Unterstützung von Kodak, komplett auf 16mm-Kinofilm produziert – passender geht es kaum. Und auch die Belegschaft kommt zu Wort. Verkäufer Arthur Ruckle bringt im Film auf den Punkt, was den Laden ausmacht: Blue Moon sei das „Niemand“ in dem Satz „Niemand macht das mehr.“ Niemand trägt mehr Krawatte zur Arbeit. Niemand fotografiert auf Film. Niemand geht ans Telefon, wenn es klingelt. Niemand schickt einem die Sachen am selben Tag zurück.
Und technisch? Laut Mitarbeiter David Malenborg entwickelt Blue Moon nahezu jeden Filmtyp – von Kodachrome über moderne Filme bis zu 60 Jahre altem Material. Wenn kein Prozess existiert, wird einer erfunden.
Ein Film, der zeigt, warum analoge Fotografie mehr ist als Retro-Nostalgie – und warum es solche Orte braucht. Genau das richtige Gegengift zu einer Woche voller Pulitzer-Tränen und weiteren KI-Skandalen.
Lesen Sie auch
(tho)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
