Künstliche Intelligenz
iX-Workshop: SW-Architektur – CPSA Foundation Level mit iSAQB-Zertifizierung
Moderne, zukunftssichere Software entwickeln: Im viertägigen iX-Workshop Softwarearchitektur: iSAQB CPSA Foundation Level mit iSAQB-Zertifizierung lernen Sie, wie Sie Softwarearchitekturen entwerfen, die diesen Anforderungen gerecht werden.
Weiterlesen nach der Anzeige
Diese vom International Software Architecture Qualification Board (iSAQB) lizenzierte Schulung bietet eine umfassende Einführung in die Welt der Softwarearchitektur. Der Workshop beleuchtet alle wichtigen Methoden, Techniken und Werkzeuge, die Sie für den Entwurf und die Implementierung benötigen. In praktischen Übungen wenden Sie das Gelernte direkt an und können am Ende der Schulung eine international anerkannte Zertifizierung ablegen.
iSAQB-Zertifizierung
Der Workshop findet online statt und richtet sich vor allem an Softwarearchitekten und -entwickler. Er dient als offizielle Vorbereitung auf die Prüfung zum „Certified Professional for Software Architecture – Foundation Level“ (CPSA-F), die im Anschluss abgelegt werden kann.
Der Trainer Mirco Schindler ist ein erfahrener Softwarearchitekt mit umfassender Erfahrung in Organisations-, Struktur- und Softwareentwicklung. Er unterstützt Unternehmen branchenübergreifend bei ihrer strategischen Digitalisierung und setzt dabei auf eine enge Verbindung von fachlicher Tiefe und praxisnaher Umsetzung.

(ilk)
Künstliche Intelligenz
Dokumente mit KI verwalten: paperless-ngx mit einem Sprachmodell verbinden
Wer keine Lust hat, nach Belegen und anderen wichtigen Dokumenten in Schuhkartons zu suchen oder des Lochens, Abheftens und Blätterns überdrüssig ist, nutzt eine digitale Dokumentenverwaltung. Eine der populärsten ist die quelloffene Dokumentenverwaltung paperless-ngx. Sie bietet automatische OCR, eine ordentliche Suchfunktion und kann Dokumente nach einer Trainingsphase selbstständig kategorisieren. Dabei liegt sie aber auch gelegentlich daneben und die Suche erwartet wörtlich vorkommende Begriffe. Steht im Krankenkassenbeleg „Zuzahlung“, läuft die Suche nach „Eigenanteil“ ins Leere.
Ein mit paperless-ngx verbundenes KI-Sprachmodell kann das besser: Es erfasst Inhalte semantisch – also dem Sinn nach – und verschlagwortet Dokumente so treffsicherer als regelbasierte Algorithmen. Statt einer wörtlichen Stichwortsuche spüren Sie Unterlagen mit der Chatfunktion in natürlicher Sprache auf: „Wann läuft mein Handyvertrag aus?„ oder „Welche Selbstbeteiligung gilt bei meiner Teilkasko?“.
- Das Tool paperless-ai verbindet die quelloffene Dokumentenverwaltung mit einem KI-Sprachmodell.
- Die KI generiert Schlagworte, analysiert Inhalte und unterstützt bei der Suche per Chat.
- Wir erklären die Installation und die Anbindung an lokale Sprachmodelle und Online-Dienste wie ChatGPT oder DeepSeek.
Das Open-Source-Tool paperless-ai verbindet die Dokumentenverwaltung mit einem KI-Sprachmodell. Wer Bedenken zu Kosten und Datenschutz hat, kann auch ein lokal installiertes Sprachmodell verwenden. Der Artikel zeigt, wie Sie paperless-ai zusätzlich zu einem vorhandenen paperless-ngx installieren und richtig konfigurieren.
Das war die Leseprobe unseres heise-Plus-Artikels „Dokumente mit KI verwalten: paperless-ngx mit einem Sprachmodell verbinden“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Verdeckte Inhalteerkennung am TV unzulässig – aber nicht unabwendbar
Generalstaatsanwalt Ken Paxton hatte an texanischen Bezirksgerichten Klage gegen fünf TV-Hersteller wegen der Datenspionage am Smart-TV erhoben. Es geht im Wesentlichen um die automatische Inhalteerkennung (Automatic Content Recognition, ACR) durch Sound- und Videoschnipseln, die auch wir schon häufig bemängelt haben. Eine nun erzielte Einigung mit Samsung wird an der leidigen Situation voraussichtlich wenig ändern, denn ACR bleibt weiterhin erlaubt.
So funktioniert ACR
Für ACR werden die vom TV-Sender, an HDMI oder vom verbundenen Smartphone ankommenden Video- und Audiosignale direkt im TV erfasst, analysiert und in digitale Signaturen kodiert, um sie anschließend mit den in Online-Datenbanken gespeicherten Inhaltesignaturen abzugleichen. Ein Dienstleister verknüpft die erkannten Inhalte mit der IP-Adresse und einer Gerätekennung zu den sogenannten Anzeigedaten und erstellt daraus ein Nutzerprofil.

Der aus dem TV-Inhalt erzeugte Fingerabdruck wird mit Inhaltsschnipseln in Datenbanken verglichen und so der am TV angezeigte Inhalt identifiziert. Anschließend ordnen ihm die Anbieter werberelevante Themenschwerpunkte zu.
(Bild: ACR-Studie „Watching TV with the Second-Party“)
Auf Grundlage dieser Profile möchten Hersteller den Bild- und Tonmodus anpassen, Videoempfehlungen geben und vermeintlich relevante Werbung ans TV und an Geräte im selben Heimnetz ausspielen.
Das war die Leseprobe unseres heise-Plus-Artikels „Verdeckte Inhalteerkennung am TV unzulässig – aber nicht unabwendbar“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Metas Ray-Bans: Clickworker sehen Sexvideos
Videos, die mit den Ray-Ban- oder Oakley-Brillen von Meta aufgezeichnet werden, bleiben nicht lokal auf dem Gerät oder dem Smartphone mit der dazugehörigen Meta AI App gespeichert. Das scheint vielen Menschen nicht klar zu sein. Denn wie das „Svenska Dagbladet“ berichtet, landen bei den zuständigen Clickworkern auch Videos von eher intimen Momenten.
Weiterlesen nach der Anzeige
Ob Sex oder der Gang zur Toilette. Solche Aufnahmen sollen dem Bericht zufolge bei Arbeitern in Kenia aufgetaucht sein. Die Menschen dort werten Videos aus, beschriften und markieren sie. Das nennt sich Daten-Annotation. Mit den so vorbereiteten Daten werden dann wiederum neue KI-Modelle trainiert. Man kann diese Menschen getrost als das Rückgrat von KI bezeichnen, denn ohne ihre Arbeit wären KI-Modelle aller Unternehmen deutlich weniger leistungsfähig oder klug.
Dass die Arbeit oftmals belastend sein kann, ist ebenfalls bekannt. Inhalte können etwa Gewalt zeigen. Auch das muss beschriftet werden, damit ein KI-Modell lernen kann, wie Gewalt aussieht oder was als Gewalt gilt – und was gegebenenfalls dann genau nicht generiert werden darf, sofern es eine solche Richtlinie für ein Modell gibt. Clickworker bekommen in der Regel sehr wenig Geld und leiden zudem psychisch unter den Aufgaben.
Es überrascht nicht, dass sie intime Situationen oder sogar Bankdaten zu sehen bekommen. Dass offenbar so wenig Bewusstsein bei den Nutzern der smarten Brillen für die potenzielle Weitergabe der Daten besteht, erstaunt aber doch.
Meta hält Vorgehen für transparent
Meta verweist auf die Datenschutzrichtlinie und Nutzungsbedingungen. Auf Nachfrage von heise online sagt ein Sprecher: „Wenn Menschen Inhalte mit Meta AI teilen, nutzen wir manchmal Subunternehmen, die diese Inhalte auswerten, um die Funktionsweise der smarten Brillen zu verbessern.“ Das stehe ganz klar in den Richtlinien.
Sprachaufnahmen können tatsächlich laut Datenschutzrichtlinie nicht automatisch weitergegeben werden. Möglicherweise hat Meta hier aus vorherigen Skandalen um etwa Amazons Alexa und Apples Siri gelernt. Auch hier landeten Sprachaufnahmen zur Auswertung und für die Verbesserung der eigenen Produkte bei Menschen, die diese anhören und auswerten mussten.
Weiterlesen nach der Anzeige
Videoaufnahmen, die mit den Ray-Bans und Oakleys aufgezeichnet werden, können aber immer an Meta und andere Unternehmen weitergereicht werden. Das lässt sich nicht abschalten. Meta AI, der Dienst und die gleichnamige App, die für die Verarbeitung der Nutzeranfragen zuständig ist, kann nur mittels Datenweitergabe die angebotenen Funktionen erfüllen. Sprich: Damit Meta AI dem Nutzer sagen kann, vor welchem Gebäude er gerade steht, müssen die Bilder an Meta geschickt und dort ausgewertet werden.
Wie die schwedische Tageszeitung berichtet, funktioniert auch die Anonymisierung der Videos nicht richtig. Clickworker sollen berichtet haben, dass Gesichter nicht verpixelt werden. Meta jedoch sagt auf Nachfrage, dass man die Inhalte sehr wohl filtere, um die Menschen zu schützen. Auch hier werde kontinuierlich an Verbesserungen der Systeme gearbeitet.
Ein weiterer Hinweis von Meta bezieht sich auf die Unsicherheit von Menschen, heimlich gefilmt zu werden. Die Brillen zeigen immer anhand einer kleinen LED im Gestell an, wenn sie aktiviert sind. Zudem sagt Meta, in den Nutzungsbedingungen sei festgehalten, dass Menschen die Dienste im Rahmen der Gesetzgebung sowie in einer respektvollen Art nutzen sollten.
(emw)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 2 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
