Connect with us

Künstliche Intelligenz

Missing Link: Machtzentrale Palantir – eine Software lenkt Organisationen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Kaum ein Technologieunternehmen polarisiert so stark wie Palantir Technologies. Das 2003 gegründete US-Unternehmen hat sich vom geheimnisvollen Start-up mit CIA-Verbindungen zu einem börsennotierten Konzern entwickelt, der Regierungen und Großkonzerne weltweit beliefert. Palantir verspricht, aus den Daten moderner Organisationen verwertbare Erkenntnisse zu gewinnen. Während Befürworter die Software als revolutionäres Werkzeug für datenbasierte Entscheidungen preisen, warnen Kritiker vor Überwachung, Intransparenz und Vendor-Lock-in-Effekten. Doch was steckt technisch dahinter?

„Palantir ist keine Datenfirma, sondern eine Softwarefirma“ betont das US-Technologie-Unternehmen seit Jahren. Dabei will Palantir mit seiner Software die zentrale Infrastruktur zur Entscheidungsunterstützung für jede Organisation sein. Um das zu erreichen, müsse man „Ordnung ins Datenchaos“ bei den Kunden bringen und eine vernetzte Organisation schaffen. Das Geschäftsmodell von Palantir beruht auf Software-as-a-Service, zu den Lizenzkosten kommen Servicegebühren und Schulungskosten. Wer sich für Palantir entscheidet, macht sich abhängig und verlagert seine digitale Infrastruktur in ein proprietäres Ökosystem.

Der Einsatz von Palantir bedeutet nicht nur eine technische, sondern auch eine strukturelle Bindung der eigenen Organisation an das US-Unternehmen. Ein späterer Systemwechsel ist aufwendig. Zwar bietet Palantir zahlreiche Schnittstellen, um bestehende Systeme und Datenquellen zu integrieren, aber keine Möglichkeit das einmal aufgebaute System zu einem anderen Anbieter umzuziehen. Bestimmte Daten lassen sich exportieren, doch das eigentliche Kapital – die semantischen Strukturen, Logiken, Interaktionen – sind tief mit Palantirs System verknüpft und funktionieren nur dort. Im Zentrum der Architektur steht eine einheitliche Ontologie – ein formales Bedeutungsmodell, das festlegt, wie Daten der Organisation verstanden, verknüpft und operational nutzbar gemacht werden. Auf einem solchen System basierende datengetriebene Entscheidungen und Prozesse können die Arbeitsweise einer Organisation verändern.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Ob sich Palantir als bundesweite Interimslösung für die Polizei eignet und eingeführt werden soll, wie es der Bundesrat im März 2025 gefordert hat und sich einige Innenminister wünschen, erscheint fraglich. Inzwischen zeigt sich wachsender Widerstand gegen die US-Big-Data-Software für die Polizei und bei der Innenministerkonferenz (IMK) konnte keine Einigung für die bundesweite Einführung von Palantir erzielt werden. Stattdessen stellte die IMK in ihrem Beschluss vom 18. Juni 25 fest, „dass die Fähigkeit der automatisierten Datenanalyse als ein Schlüsselelement der künftigen digitalen Sicherheitsinfrastruktur hinsichtlich Verfügbarkeit, Vertraulichkeit, Integrität und ihrer Rechtskonformität keiner strukturellen Einflussmöglichkeit durch außereuropäische Staaten ausgesetzt sein darf“ und „vor diesem Hintergrund die Entwicklung einer digital souveränen Lösung anzustreben ist“.

Den Bundesländern steht es nach wie vor frei, (weiter) mit Palantir zusammenzuarbeiten. Baden-Württemberg plant bereits seit Längerem die Einführung einer Landes-VeRA und hat dafür nach Rücksprache mit Bayern 18,5 Millionen Euro an Haushaltsmittel für 2025/2026 veranschlagt. Auch Sachsen-Anhalt möchte Palantir einführen, berichtet der MDR.

Wie sich die Arbeitsweise mit Palantir ändert, zeigen die Erfahrungen bei der Landespolizei Hessen, die Palantir Gotham als „HessenData“ seit 2017 einsetzt. Jährlich werden mehrere Tausend Abfragen mit dem System durchgeführt, das von jedem Arbeitsplatz aus erreichbar ist. Als im Februar 2023 das Bundesverfassungsgericht die Regeln zur Datenanalyse bei der Polizei beanstandete, wurde dem Land Hessen eine Frist für die Gesetzesänderung eingeräumt, in der die Nutzung von HessenData unter Auflagen weiter erlaubt war. Hessen passte seine Rechtsgrundlage an, weshalb HessenData weiter in Betrieb ist. Das System sorge für mehr Effizienz und „eigentlich ist jede Nutzung im Alltag der Kollegen schon ein Riesenerfolg“, zitiert die SZ in einem aktuellen Beitrag eine Polizistin aus dem Innovation Hub 110, die für den Betrieb der Plattform verantwortlich ist. Palantir scheint fester Bestandteil der hessischen Ermittlungsarbeit zu sein und Hessen ist auch an einem Ausbau der Analysefähigkeiten mit KI interessiert. So nahmen Mitarbeiter des Innovation Hub 110 im Mai 2025 mit einer eigenen Live-Demo an einer AIP Expo von Palantir in München teil, wie sie auf LinkedIn mitteilten. Palantir veranstaltet solche AIP Expos als geschlossenes Networking-Event für Führungskräfte aus seinem Kundenstamm, um die Integration von KI in seine Produkte in der Praxis durch einzelne Kunden selbst vorführen zu lassen.

Um die dahinterliegende Systemarchitektur besser einordnen zu können, lohnt sich ein Blick auf die zentralen Palantir-Produkte – insbesondere auf die modular aufgebauten Plattformen Foundry und Gotham. Sie bilden die technische Grundlage für Anwendungen wie HessenData , DAR (NRW) oder VeRA (Bayern), die sich mittels AIP (Artificial Intelligence Platform) leicht mit KI-Funktionalitäten ergänzen lassen könnten.

Die Hauptprodukte sind Palantir Foundry und Palantir Gotham, dazu kommen Palantir AIP und Palantir Apollo. Alle Produkte werden als „Plattformen“ beworben, wobei betont wird, dass sie keine Datenplattform, sondern eine modular aufgebaute Betriebsplattform sind, und als OS dienen sollen.

Foundry wird als „Ontologie-basierte Betriebssystem für das moderne Unternehmen“ beworben; während der Slogan „Deine Software ist das Waffensystem“ für Gotham als „Betriebssystem für die globale Entscheidungsfindung“ bei Behörden und Organisationen im Sicherheitsbereich wirbt.

Das Betriebssystem setzt sich in seiner Basis aus dem „Palantir Data Store“ als physische/technische Ebene der Speicherstruktur für Roh- und Transformationsdaten und der Ontologie als logischer Bedeutungsebene für die Daten zusammen. Der „Palantir Data Store“ ist Bestandteil von Foundry. In Foundry erfolgt die Datenintegration, -modellierung und -analyse.

Die Ontologie ist als zentrales Struktur- und Organisationsprinzip das Herzstück des Palantir-Systems, das zum semantischen Rückgrat der das System nutzenden Organisation wird.

Eine Ontologie ist ein formales Modell, das Konzepte, Entitäten und ihre Eigenschaften und Beziehungen zueinander einheitlich und strukturiert beschreibt.

So wird eine gemeinsame Bedeutungswelt in einem zentralen System geschaffen, in dem Daten quer über Systeme hinweg aus unterschiedlichsten Quellen und Formaten zusammenfließen, vereinheitlicht, kontextualisiert und analysierbar werden.

Über heterogene IT-Systemlandschaften einer Organisation und ihrer Daten hinweg wird mit der Ontologie eine gemeinsame Sprache als semantische Zwischenebene (Semantic Layer) geschaffen. Und diese Sprache kann auch in der Zusammenarbeit mit anderen Organisationen genutzt werden, wenn sie dieselbe Ontologie nutzen.

Mit Palantirs Ontologie wird ein digitaler Zwilling einer Organisation erstellt. Daten, Prozesse, Regeln und Nutzerinteraktionen werden in einem einheitlichen Modell strukturiert zentral zusammengeführt – dieses Wissen lässt sich maschinell verarbeiten, durchsuchen und logisch verknüpfen. Es lassen sich nicht nur Zusammenhänge verstehen und Rückschlüsse ziehen, sondern auch steuerbare Aktionen durchführen.

Diese Ontologie ist vollständig anpassbar und erweiterbar – sie bildet die Struktur, auf der alle Analysen, Datenflüsse und Benutzeroberflächen in Palantir-Produkten aufbauen. Über die Ontologie wird bestimmt, was sichtbar wird, was verknüpft wird, was als relevant gilt.



Im „Ontology Manager“ definiert man Entitäten – im Beispiel ein Passagierflugzeug – und weist ihnen Eigenschaften zu. Die Ontologie verknüpft diese mit (Echtzeit-)Daten, Prozessen, Regeln und führt sie in einem einheitlichen Modell strukturiert zentral zusammen.

(Bild: Screenshot/Palantir)

  • Object Types – definieren Entitäten wie zum Beispiel „Person“, „Sache“, „Ereignis“, „Vorfall“, „Produktionslinie“, „Konzept“
  • Properties – beschreiben Eigenschaften/Attribute dieser Entitäten, etwa „Name“, „Kennzeichen“, „Ort“, „Datum“, „Zeitstempel“
  • Shared Properties – beschreibt eine Eigenschaft, die auf mehreren Objekttypen verwendet wird, so lassen sich Eigenschaftsmetadaten zentral verwalten
  • Link Types – repräsentieren Beziehungen zwischen Entitäten, zum Beispiel „enthält“, „war bei“, „kennt“, „verwendet“, „wohnt“, „Fahrer“, „Mitfahrer“, „ist Mitglied bei“, „Zeuge“, „Beschuldigter“, „Tatverdächtiger“
  • Action Types – ermöglicht Änderungen an den Entitäten, ihren Eigenschaften und Beziehungen. Dabei können nach Durchführung der Aktion auch (automatisiert) weitere Aktionen folgen, die in den jeweiligen Aktions-Schemata hinterlegt sind.
  • Functions – ermöglichen die Interaktion mit den Entitäten in Form von Logiken, die ausgeführt werden
  • Object Views – Darstellung von Informationen und Arbeitsabläufen, die sich auf ein bestimmtes Objekt beziehen, es könnte etwa ein Steckbrief angezeigt werden oder eine detaillierte Darstellung aller mit einem Objekt zusammenhängenden Informationen
  • Rollen – die direkte Anwendung von Rollen auf jede Ontologie-Ressource, unabhängig von den Berechtigungen auf die ursprüngliche Datenquelle
  • Interfaces – abstraktes Schema für Schnittstellen ist ein Ontologietyp, der die Form eines Objekttyps und seine Funktionen beschreibt. Schnittstellen ermöglichen eine konsistente Modellierung und Interaktion mit Objekttypen, die eine gemeinsame Form haben.



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Sigmas 1.8er-Zoom und Rückkehr der Zauberlampe – Fotonews der Woche 26/2025


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Zur oft zitierten „Dreifaltigkeit“ der Zooms gehört ein Objektiv mit 16-35 Millimetern Brennweite und einer Anfangsblendenöffnung von f/2.8. Die anderen beiden, nur der Vollständigkeit halber, sind üblicherweise 24-70mm und 70-200mm, auch mit f/2.8. Und auch fast schon üblich ist, dass Sigma solche jahrzehntelang gepflegten Traditionen aufbricht. Wie wäre es mit noch mehr Licht, also f/1.8? Und bitte für APS-C, wo lichtstarke Zooms rar geworden sind?

Optisch geht das, es braucht nur viel Glas, was das neue Sigma 17-40mm F1.8 DC Art trotz des kleineren Bildkreises auf 535 Gramm bringt. Und die 17 Linsen in 11 Gruppen müssen eben viel Licht brechen, was trotz des hohen Anspruchs der Art-Serie von Sigma zwangsläufig Bildfehler mit sich bringt. Die fielen dann in Form von chromatischen Aberrationen beim Test von Petapixel auch auf: blaue und gelbe Farbsäume an den Kanten von harten Kontrasten. Das bekommt man auch in der Bearbeitung nur mit viel Handarbeit weg, wenn die Details erhalten bleiben sollen.

Diese Fehler treten wie bei allen lichtstarken Objektiven vor allem bei Offenblende auf, abblenden hilft natürlich – aber gerade f/1.8 macht eben den Reiz eines solchen Objektivs aus. Die Frage ist auch, welche Motive man ablichtet, wenn man beispielsweise auf Veranstaltungen Available-Light-Fotos macht, kann das stören. Die Lösung für den Kolumnisten war bei ähnlichen Optiken meist: Leicht abblenden, und einen minimalen Aufhellblitz verwenden. Bei solch speziellen Objektiven lohnt es immer, mit verschiedenen Techniken zu experimentieren.

Ansonsten macht das Sigma aber eine gute Figur, es ist vor allem auch bei f/1.8 noch recht scharf, was aber zu den Rändern hin bis f/4.0 abnimmt. Mitte Juli sollen die Versionen für L-Mount, E-Mount und X-Mount ausgeliefert werden, im August das Modell für Canons RF-Mount folgen. Ob Nikon auch einmal seine Genehmigung für den Z-Mount erteilt, ist noch nicht abzusehen. Für alle Versionen verlangt Sigma 999 Euro, nach den bisher veröffentlichten Daten ist das Objektiv nicht wetterfest. Aus den 17-40mm werden übrigens bei einem Crop-Faktor von 1,5 an APS-C-Kameras rund 26-60mm, man hat also fast ein 24-70mm-Zoom wie am Vollformat in der Hand.

Weniger technisch ausgefuchst, sondern eher ein Trendreiter scheint die Echolens zu sein. Über die Retro-Kamera mit Retro-Bildqualität hatte unsere Kolumne schon berichtet, nun ist ihr Kickstarter-Projekt gestartet. Und damit ist auch der Preis bekannt: Derzeit ab 149 US-Dollar soll die Kamera kosten, die ersten Unterstützer bekamen sie für 99 US-Dollar. Auch ein paar technische Daten gibt es: Wie früher schon vermutet gibt es nur den optischen Sucher und ein festes Objektiv, das 35 Millimetern Brennweite entsprechen soll. Dahinter sitzt ein Sensor mit ganzen 8 Megapixeln – also dem, was selbst jedes Billighandy heute bietet.

Das erklärt auch den früheren Eindruck der mäßigen Bildqualität, der durch die neuen Beispielbilder immerhin etwas besser geworden ist. Die Echolens, das schreiben ihre Macher auch unumwunden, soll einfach nur Spaß am Fotografieren mit analogem Gefühl für kleines Bild verbinden. Dazu dient auch ein mechanischer Bildzähler, der sogar gebraucht wird, denn maximal 54 Fotos passen in den internen Speicher, der nicht erweiterbar ist. Erst durch Übertragung per eigener App aufs Smartphone per WLAN oder Bluetooth oder an ein anderes Gerät per USB-C wird wieder Platz.

Das ist auch nötig, um die Bilder zu sehen, denn ein Display hat die Echolens nicht. Wohl auch daher ist sie auch billiger als die Fuji X-Half, die wir bereits ausprobiert haben. Also Foto-Spielzeug mag sie angesichts des Preises also noch durchgehen, wenn denn die versprochenen Funktionen wie die zahlreichen Film-Looks und die App auch ordentlich funktionieren. Ab Oktober 2025 soll die Kamera ausgeliefert werden, wie stets bei Kickstarter-Projekten sollte man sich darauf nicht unbedingt verlassen. Die angepeilten 1000 Unterstützer hat die Echolens bereits gefunden, also besteht wohl die Chance, dass sie auch wirklich gebaut wird.

Bereits verfügbar – endlich – ist Sonys Lösung für ein Echtheitssiegel für Fotos nach CAI/C2PA. Natürlich verwendet der Branchenriese dafür eine eigene Marke, „Camera Verify“. So heißt das System, das nun als Beta-Version erschienen ist. Noch immer wird dafür eine Lizenz in der Kamera nötig, und noch immer gibt es die nur für Bildagenturen, Fotojournalisten und Medienhäuser. Immerhin: C2PA-signierte Bilder kann nun jeder überprüfen, dafür gibt es eine frei zugängliche Webseite.

Sony hat mit der Veröffentlichung auch ein bisschen mehr zu dem erklärt, was da geprüft wird. Die Alphas zeichnen nicht nur offensichtliche Meta-Daten wie Ort und Zeit einer Aufnahme auf, sondern auch die 3D-Tiefeninformationen. Die fehlen üblicherweise etwa bei KI-generierten Bildern. Weiteres verrät unsere ausführliche Meldung. Übrigens auch, dass Sony die Technik im Herbst auch für Videos unterstützen will, vorerst klappt das nur mit JPEGs und ARW-Raw-Dateien.

Beim Thema Firmware in der Kamera gibt es in dieser Woche auch Neuigkeiten von einem alten Bekannten: Magic Lantern ist wieder da. Dabei handelt es sich um ein Projekt für inoffizielle Firmware für Canon-Kameras, das vom Hersteller nicht eingebaut Funktionen nachrüstet. Vor allem bei Filmern ist die Zauberlampe beliebt, denn Profi-Funktionen wie Focus Peaking oder gar das interne Aufzeichnen von Videos in Raw-Formaten war mit älteren Canon-DSLRs nur so machbar.

Nach Jahren der Stille gibt es nun neue Versionen von Magic Lantern, erstmals werden die EOS 200D, 750D, 6D Mark II und 7D Mark II unterstützt. Die Funktionen sind, je nachdem, was die Entwickler an Hard- und Software reverse engineeren konnten, etwas unterschiedlich. Vor dem Link noch ein Wort der Warnung: Magic Lantern ist eine inoffizielle Firmware, die Installation und Benutzung erfolgt immer auf eigene Gefahr. Eingefrorene Kameras (bricked), die dann von Canon, eventuell gegen eine Reparaturgebühr, wieder erweckt werden müssen, können ebenso vorkommen wie Abstürze im Betrieb. Niemand garantiert für Magic Lantern, und vor der Benutzung sollte man sich im umfangreichen Forum des Projekts schlaumachen. Wenn man das alles beachtet, geht es hier zu den neuen Versionen.

Custom-Firmware für Kameras ist eine Nische – ebenso wie die Fetisch-Fotografie. Bei diesem Fach gibt es jedoch viel Kreativität und ebenso viele Möglichkeiten, Menschen nicht nur in einem sexuellen Kontext in Szene zu setzen. Dazu braucht man nicht nur technisches, Szene-typisches, sondern vor allem soziales Know-How. Alles basiert auf Respekt und Vertrauen, und so ist auch die aktuelle Folge unseres Podcasts Click Boom Flash überschrieben, in welcher die Fetisch-Fotografin Lisa Loepke aus ihrer Arbeit erzählt. Die Ausgabe ist unsere Empfehlung für einen Long Hear zum Sonntagabend.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Mit c’t-WIMage erstellte Sicherungen wiederherstellen


Ein USB-Datenträger, den Sie gemäß unserer Anleitung für c’t-WIMage einrichten, nimmt nicht nur die Sicherungen all Ihrer Windows-Installationen auf, sondern dient auch als bootfähiges Rettungsmedium zum Wiederherstellen eines Images. Das ist überraschend einfach: Wenn Sie schon mal Windows neu installiert haben, kennen Sie den Vorgang bereits, denn das Wiederherstellungsprogramm ist dasselbe: das Windows-Setup-Programm (Setup.exe).

c’t-WIMage verwendet das zu Windows 10 gehörige Setup-Programm, dem es egal ist, ob es Windows 10 oder 11 wiederherstellen soll. Zudem kümmert es sich nicht um die absurd hohen Hardwareanforderungen, die sein Windows-11-Pendant voraussetzt. Als Folge können Sie Windows 10 auf allem wiederherstellen, was mindestens Windows-7-tauglich ist. Das gilt an sich auch für Windows 11, doch eine Anforderung muss mittlerweile erfüllt sein: Der Prozessor muss die Befehlssatzerweiterung SSE4.2 beherrschen. Tut er das nicht, könnten Sie das Image zwar dennoch restaurieren. Doch wegen Microsofts Hang zur Kundenschikane würde die wiederhergestellte Installation nicht mal booten. Das gilt übrigens auch für Neuinstallationen von Windows 11 ab Version 24H2. Beschwerden darüber schicken Sie bitte nach Redmond.

  • Das Wiederherstellen Ihrer Sicherungen übernimmt das Setup-Programm von Windows 10. Dem ist es egal, auf welcher Hardware es läuft.
  • Falls die Partitionierung zu Beschwerden führt, gibt es einfache Abhilfe.
  • Nach dem Wiederherstellen startet Ihre Installation ohne Nachfrage zum Desktop durch. Oft brauchen Sie sie nicht mal zu aktivieren.

Das Wiederherstellen selbst ist schnell erledigt. Der komplizierteste Handgriff dabei ist üblicherweise auch gleich der erste: das Booten des Rechners vom USB-Datenträger. Weiter geht es mit der Auswahl der Sicherung und des Ziellaufwerks, dann heißt es warten, bis der Desktop der wiederhergestellten Installation erscheint. Falls Sie die nötigen Handgriffe bereits von Neuinstallationen oder von den Vorgängerversionen von c’t-WIMage kennen (es sind ja dieselben), brauchen Sie im Grunde nicht weiterzulesen, denn steht hier nichts Neues mehr für Sie. Für alle anderen folgen nun Hinweise und Tipps zu den Details.


Das war die Leseprobe unseres heise-Plus-Artikels „Mit c’t-WIMage erstellte Sicherungen wiederherstellen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Testzug fährt Tempo 405 zwischen Erfurt und Leipzig


Die Deutsche Bahn und Siemens haben auf der Strecke zwischen Erfurt und Leipzig/Halle einen neuen Hochgeschwindigkeitszug des Münchner Zugbauers getestet. Der sogenannte Velaro Novo erreichte dabei Geschwindigkeiten von rund 405 Kilometern pro Stunde, wie die Bahn mitteilte. Dies sei ein Rekord für diese Strecke gewesen, sagte eine Bahnsprecherin. Bei dem Test kam ein mit Messtechnik ausgestatteter Mittelwagen der neuen Zugplattform zum Einsatz. Gezogen wurde er von einem ICE-Triebfahrzeug, das diese hohen Geschwindigkeiten erreichen kann.

„Die Testfahrten liefern uns wichtige Erkenntnisse für die Sanierung und Instandhaltung von Schnellfahrstrecken sowie die technische Weiterentwicklung von Hochgeschwindigkeitszügen und kommen somit auch den Fahrgästen zugute“, teilte der Chef der Bahn-Infrastrukturtochter DB InfraGO, Philipp Nagl, mit. Für Siemens wiederum ist es ebenfalls ein wichtiger Test der neuen Zugtechnik.

Der Velaro Novo ist bisher nicht im Regelbetrieb im Einsatz. Die heutigen ICE-Züge der Deutschen Bahn basieren auf früheren Velaro-Generationen. In welcher Form und wann der Novo in Deutschlandauf die Schiene kommt, ist offen.

Technisch ist es für die meisten ICE-Züge der Bahn kein Problem, schneller als 300 Kilometer pro Stunde zu fahren. Lediglich die ICE 4 schaffen nicht mehr als 265 km/h. Doch faktisch ist es angesichts der kurzen Distanzen zwischen Bahnhöfen in Deutschland und des häufig maroden und überlasteten Schienennetzes selten, dass die Fahrzeuge so schnell unterwegs sind.

Die Strecke zwischen Erfurt und Leipzig wurde im Jahr 2015 in Betrieb genommen und ist für dieses Tempo ausgelegt. Sie befinde sich nach wie vor in einem sehr guten Zustand, teilte die Bahn mit. Die höchste bisher dort gefahrene Geschwindigkeit war laut Bahnsprecherin rund 333 Kilometer pro Stunde.


(dmk)



Source link

Weiterlesen

Beliebt