Connect with us

Künstliche Intelligenz

SAP greift nach Reltio – Unternehmensdaten sollen KI-bereit werden


Der Walldorfer Softwarekonzern SAP plant die Übernahme des Datenspezialisten Reltio. Das Unternehmen aus dem kalifornischen Redwood Shores ist auf cloud-natives Master Data Management (MDM) spezialisiert – also auf Software, die Stammdaten aus verschiedenen Quellen vereinheitlicht und für Anwendungen nutzbar macht. Finanzielle Details der Transaktion nannten beide Seiten nicht.

Weiterlesen nach der Anzeige

Wie SAP in einer Pressemitteilung erklärte, soll die Übernahme die Position des Konzerns als Anbieter von Business-KI stärken. SAP-Vorstandsmitglied Muhammad Alam sagte dazu: „Künstliche Intelligenz kann ihr volles Potenzial nicht erreichen, wenn Daten über Geschäftsbereiche, Plattformen und Domänen hinweg verteilt sind, ohne Verbindung zueinander oder ohne den notwendigen Kontext.“ Reltio sei eine „natürliche Ergänzung“ für SAP. Der Abschluss der Transaktion wird für das zweite oder dritte Quartal 2026 erwartet, vorbehaltlich behördlicher Genehmigungen.

Reltio wurde 2011 von Manish Sood gegründet. Reltios Plattform ermöglicht es, aus verteilten Datensätzen einen sogenannten „Golden Record“ zu erstellen – einen vereinheitlichten Datensatz mit vollständigem Kontext. Unter anderem eine Reihe von Fortune-500-Unternehmen zählen Reltio zufolge zu den Kunden.

SAP plant, die Reltio-Technologie in seine Business Data Cloud (BDC) zu integrieren. Damit sollen sowohl SAP- als auch Nicht-SAP-Daten für die hauseigenen KI-Agenten Joule bereitstehen. SAP verspricht sich davon unter anderem Echtzeit-Workflows für seine agentische KI – etwa Beschaffungsagenten, die Lieferantenrisiken automatisiert bewerten. Reltio soll dabei auch als eigenständiges Produkt verfügbar bleiben.

Reltio-Gründer Sood betonte in einem Blogbeitrag, der Zusammenschluss biete die Möglichkeit, das eigene Ziel rascher zu erreichen: „Unternehmens-KI benötigt vertrauenswürdigen Kontext, der offen und interoperabel über die heterogenen IT-Landschaften hinweg funktioniert, die unsere Kunden betreiben.“

Weiterlesen nach der Anzeige

Im MDM-Markt konkurriert Reltio mit Anbietern wie Informatica, Profisee, Semarchy und Boomi. Für SAP-Kunden dürfte die Übernahme vor allem dann relevant werden, wenn sie Daten aus heterogenen IT-Landschaften für KI-Anwendungen nutzbar machen wollen.

Lesen Sie auch


(nen)



Source link

Künstliche Intelligenz

KI-Modelle gegen klassische Wettervorhersage: Wer liefert die bessere Prognose?


Regnet es am Wochenende oder scheint die Sonne? Instabile Wetterlagen wie jetzt gerade machen die Wettervorhersage besonders unzuverlässig. Wie KI-Modelle hier Abhilfe schaffen – und wo ihre Grenzen liegen.

Weiterlesen nach der Anzeige

Ein langes Mai-Wochenende steht an – eigentlich ideal für Freiluftaktivitäten. Aber wird tatsächlich die Sonne scheinen? Wer diese Frage derzeit mit Wetter-Apps auf dem Smartphone beantwortet, wird oft enttäuscht. KI-Modelle wie Graphcast von Google, Aurora von Microsoft oder Pangu Weather von Huawei versprechen ähnlich gute oder sogar bessere Ergebnisse, die wesentlich schneller berechnet werden.

Was ist der Unterschied zwischen konventionellen Modellen und KI-Modellen? Was taugen die neuen Modelle und wo werden sie eingesetzt? Und können Sie KI-Modelle nutzen, um das lange Wochenende vielleicht doch mit ein wenig mehr Sicherheit zu planen? Wir beantworten die wichtigsten Fragen.

Konventionelle Wettermodelle beschreiben die zeitliche – also zukünftige – Entwicklung von Druck, Temperatur und Luftfeuchtigkeit ausgehend von aktuell gemessenen Werten mithilfe von physikalischen Gleichungen.

Der britische Mathematiker Lewis Fry Richardson kam bereits Anfang des zwanzigsten Jahrhunderts auf die Idee, dass es möglich sein müsste, mithilfe von physikalischen Gesetzmäßigkeiten das Wetter vorherzusagen. Bis dahin verließen sich die Meteorologen weitgehend auf Erfahrung und Beobachtung und entwickelten empirische Modelle auf der Basis der Entwicklung ähnlicher, bekannter Wetterlagen. Weil es damals aber noch keine Computer gab, musste Richardson seine Berechnungen von Hand durchführen – was länger dauerte als die Reichweite seiner Vorhersage. Außerdem waren die Messdaten, die er in seine Berechnungen steckte, äußerst lückenhaft. Seine Vorhersagen für Luftdruckänderungen lagen also weit neben den tatsächlichen Messungen. Die Arbeiten gelten dennoch als bahnbrechend für die moderne Meteorologie.

Die physikalischen Gleichungen geben an, wie stark sich Größen wie Luftdruck, Temperatur und Luftfeuchtigkeit in Abhängigkeit voneinander ändern – das ergibt miteinander gekoppelte Differenzialgleichungen. Um zu berechnen, wie das Wetter wird, müssen diese Gleichungen numerisch integriert werden. Das passiert an den Knotenpunkten eines räumlichen Gitters in festen Zeitschritten. Wie präzise ein Wettermodell ist, hängt also davon ab, wie klein das Raster ist. Allerdings steigt auch der Rechenaufwand, je engmaschiger das Gitter ist.

Regionale Wettermodelle mit kleinen Gitter-Abständen berechnen daher in der Regel nur kurzfristige Vorhersagen. Das Wettermodell COSMO-DE des Deutschen Wetterdienstes etwa verwendet ein Raster von 2,8 × 2,8 Kilometer mit 50 Höhenschichten. Wolken, die jedoch meist kleiner als solche Zellen sind, müssen daher „parametrisiert“ werden – sie tauchen nur in der Anpassung einzelner Modellparameter auf. Deshalb sind Vorhersagen auch immer dann besonders ungenau, wenn sich in einer größeren Luftströmung kleinräumige Störungen befinden.

Weiterlesen nach der Anzeige

Je weiter eine Wettervorhersage in die Zukunft rechnet, desto mehr addieren sich zudem Fehler und Ungenauigkeiten. Ein Vorhersagehorizont von 14 Tagen gilt noch immer als eine Art Schallmauer.

Die Regel, dass Wettervorhersagen nur etwa bis 14 Tage brauchbar sind, geht auf den amerikanischen Mathematiker und Meteorologen Edward Lorenz zurück. Lorenz untersuchte Anfang der 1960er Jahre die Möglichkeiten der numerischen Wettervorhersage in einem stark vereinfachten System – einer sogenannten Konvektionszelle. Das ist ein Luftvolumen, das von unten gleichmäßig erwärmt wird. Die warme Luft steigt auf, kühlt ab und strömt dann wieder nach unten. Dabei entdeckte er, dass schon kleine Ungenauigkeiten in den Anfangswerten nach einiger Zeit große Ungenauigkeiten in der Vorhersage bewirkten. Lorenz vermutete daher, dass auch bei beliebig genau gemessenen Anfangswerten der Zeithorizont der Vorhersage begrenzt sein würde. Die Chaostheorie lieferte später die theoretische Unterfütterung für diesen sogenannten „Schmetterlingseffekt“. Kurz: Wettermodelle sind chaotische Systeme.



Source link

Weiterlesen

Künstliche Intelligenz

Digitale Souveränität: Verfassungsschutz kauft europäische Palantir-Alternative


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der deutsche Inlandsgeheimdienst macht Ernst beim Thema digitale Souveränität: Das Bundesamt für Verfassungsschutz (BfV) hat eine neue Software zur Analyse großer Datenmengen erworben. Nach Informationen von WDR, NDR und Süddeutscher Zeitung fiel die Wahl dabei nicht auf den umstrittenen US-Marktführer Palantir, der seit Jahren massiv in den deutschen Sicherheitsmarkt drängt. Vielmehr habe das französische Unternehmen ChapsVision den Zuschlag erhalten.

Weiterlesen nach der Anzeige

Damit will die Bonner Behörde laut den Berichten gezielt ein Zeichen gegen die technologische Abhängigkeit von US-Anbietern setzen, die vielen Sicherheitsbehörden zunehmend übel aufstößt. BfV-Präsident Sinan Selen deutete diesen Kurs bereits Ende 2025 auf einer internen Konferenz in Berlin an. Er hob damals hervor, für die Sicherheit sei entscheidend, geostrategisch richtige Entscheidungen zu treffen und den europäischen Fokus zu schärfen. Es gelte, die Souveränität zu stärken und Alternativen zu bieten, statt sich in langfristige Abhängigkeiten zu begeben.

Mit dem Kauf des Produkts der Firma ChapsVision, die dem Tech-Unternehmer Olivier Dellenbach gehört, setzt das Amt diese Ankündigung nun in die Praxis um.

Die auserwählte Softwarelösung trägt den Namen ArgonOS und arbeitet mit Künstlicher Intelligenz (KI). Sie ist darauf spezialisiert, riesige Datenmengen zu durchforsten, Informationen aus unterschiedlichen Datenbanken miteinander in Beziehung zu setzen und komplexe Netzwerke sichtbar zu machen.

Neben der klassischen Datenbankanalyse beherrscht das System auch die Recherche in offen zugänglichen Quellen alias Open Source Intelligence (OSINT). In Frankreich wird die Software bereits erfolgreich vom dortigen Inlandsgeheimdienst DGSI eingesetzt. Für den deutschen Markt kooperiert ChapsVision mit dem IT-Dienstleister Rola Security Solutions, der auch in den Polizeilichen Informations- und Analyseverbunds (PIAV) eingebunden ist.

Aus Kreisen des Verfassungsschutzes heißt es der Recherche zufolge, dass die Phase des Machbarkeitsnachweises schon erfolgreich abgeschlossen worden sei. Die Software gelte als einsatzbereit und solle vor allem in der Terrorismusbekämpfung und der Spionageabwehr wertvolle Dienste leisten. Derzeit werde das System allerdings noch in einem rechtlich eng begrenzten Rahmen genutzt, da die volle Ausschöpfung der Analysefunktionen auch von der geplanten Reform des Nachrichtendienstrechts abhänge. Das Bundesinnenministerium (BMI) arbeitet seit geraumer Zeit an einer Novelle, die dem BfV erweiterte Kompetenzen bei der Nutzung von KI und Gesichtserkennung einräumen soll.

Weiterlesen nach der Anzeige

Die Entscheidung des BfV sorgt für politischen Zündstoff: Sie legt den Riss innerhalb der Bundesregierung in der Palantir-Frage offen. Die Sicherheitsbehörden selbst und weite Teile der schwarz-roten Koalition drängen auf europäische Lösungen. Bundesinnenminister Alexander Dobrindt (CSU) hält die Tür für den US-Anbieter aber weiter offen. Kritik kommt hier vor allem von den Grünen im Bundestag. Fraktionsvize Konstantin von Notz hält es für sicherheitspolitisch blauäugig, sich von einem Unternehmen wie Palantir abhängig zu machen: Dessen Gründer Peter Thiel sei durch demokratiekritische Aussagen und seine Nähe zur Trump-Administration aufgefallen.

Auch innerhalb der Sicherheitsarchitektur wächst der Widerstand gegen US-Software. Neben dem BfV haben sich zuletzt auch das Bundeskriminalamt und Teile der Bundeswehr skeptisch gegenüber Palantir geäußert. Sie sorgen sich, dass sensible Daten abfließen und die Kontrolle über die kritische Infrastruktur verloren gehe. Bayern und Hessen setzen weiter auf Palantir. In anderen Bundesländern zeichnet sich ein Umdenken ab: Baden-Württemberg diskutiert offen den Ausstieg, auch in Nordrhein-Westfalen steht die Zusammenarbeit auf dem Prüfstand.

Befürworter europäischer Alternativen wie der SPD-Innenpolitiker Sebastian Fiedler sehen in der Entscheidung des BfV einen Meilenstein für die nationale Sicherheitsstrategie. Leistungsfähige Analysewerkzeuge seien unabdingbar, dürften aber nicht die digitale Souveränität gefährden. Die erfolgreiche Implementierung der französischen Software beim Verfassungsschutz könnte so als Blaupause dienen und den Druck aufs BMI erhöhen, eine klare, europaorientierte Beschaffungsstrategie festzulegen.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

BSI zu Risiko öffentlicher Ladestationen


Werden Elektroautos an öffentlichen Ladestellen geladen, kommt zur Strom- auch eine Datenverbindung. Diese kann Einfallstor für Angriffe auf die Ladestation, das Stromverteilnetz oder dessen Steuersysteme, aber auch das angeschlossene E-Auto sein. Daher hat das Bundesamts für Sicherheit in der Informationstechnik (BSI) die IT-Sicherheit öffentlich zugänglicher Ladenetze untersucht. Ergebnis: Zentrale Normen, darunter UNECE R 155, entsprechen in vielen Bereichen dem Stand der Technik, aber Entwarnung löst das nicht aus.

Weiterlesen nach der Anzeige

Zu möglichen Angriffspunkten an den annähernd 150.000 Normal- und 50.000 Schnellladesäulen in Deutschland zählt beispielsweise ein Bug im Open Charge Point Protocol 2025. Das weit verbreitete Protokoll gilt hinsichtlich Authentifizierung und Session Handling als anfällig und ist uneinheitlich implementiert. „In der praktischen Umsetzung werden jedoch zahlreiche Sicherheitsmechanismen – etwa Transportverschlüsselung, Sperrlisten oder moderne kryptographische Verfahren – häufig nur eingeschränkt oder optional implementiert, teilweise aus Gründen der Abwärtskompatibilität“, heißt es deshalb in dem 65 Seiten starken BSI-Bericht. Die Maßnahmen seien nur „gering verbreitet“, weiterhin würden proprietäre Protokolle verwendet. Es gebe daher den „Bedarf eines grundlegenden Paradigmenwechsels hin zu verpflichtendem Security-by-Design und Security-by-Default.“ Und das nicht erst seit kurzem.

Laut den BSI-Fachleuten ist bislang lediglich ein Ausschnitt des Problems genauer untersucht. „Deutliche Schwachstellen“ gebe es etwa in den Systemen der Ladestationenbetreiber. Und die zentrale Verwaltung der Zertifikate für die Kommunikation und Identifikation der Beteiligten im Ladesystem sei problematisch. „Kompromittierungen einzelner Vertrauensanker können weitreichende Folgen für die gesamte Ladeinfrastruktur und deren Vertrauenswürdigkeit haben“, schreibt die Behörde.

Wenn aber Teile des Systems kompromittiert werden und etwa die Ladekommunikation gestört wird, kann das physikalische Folgen haben – am E-Auto, an der Ladestation, oder sogar im Stromnetz. „Ob und in welchem Umfang Schäden wie Bauteilschädigungen oder thermische Überlast auftreten können, hängt dabei wesentlich davon ab, ob die entsprechenden Komponenten eigensicher konzipiert sind und sich selbst gegen Überspannungen oder zu hohe Stromflüsse absichern“, beschreiben die IT-Sicherheitsfachleute das Problem. Sprich: ob sie sich bei Fehlsteuerung notabschalten.

„Falls zeitgleich mehrere oder weitreichende Verbindungen von Angriffen betroffen sind, kann dies im schlimmsten Fall die Netzstabilität gefährden.“ Etwa, wenn das lokale Netz eines Ladehubs gezielt angegriffen würde. Schon lange ist bekannt, dass Botnetze durch koordinierte Beeinflussung des Stromverbrauches Teile des kontinentaleuropäische Stromnetz zusammenbrechen lassen könnten.

Und das Problem wird größer, warnt das BSI: „Durch die Einführung von bidirektionalem Laden wird der Effekt um ein Vielfaches verstärkt.“ Solange das Laden nur unidirektional zum Auto ablief, war das zumindest für die Stromnetze kein direktes Problem. Doch mit skalierender, gezielter oder fehlgeleiteter Einspeise- und Ausspeisesteuerung wächst das Problem.

Weiterlesen nach der Anzeige

Der Verband der Automobilhersteller (VDA) ist sich dessen bewusst: „Durch Plug & Charge und das bidirektionale Laden entstehen neue Anforderungen an sichere Kommunikation, Authentifizierung und Zertifikatsmanagement.“ Jedoch sei IT-Sicherheit bei den Automobilherstellern „konsequent in Entwicklungs- und Produktionsprozesse integriert“, sagte ein Sprecher zu heise online. Entscheidend sei, Sicherheitsstandards interoperabel und entlang der gesamten Wertschöpfungskette umzusetzen. Sprich: Das Problem wird gesehen – aber nicht bei den Autoherstellern.

Die Strombranche ebenfalls Risiken, aber „keinen Grund für Alarmismus (…) Es hat im Lademarkt nach unserem Kenntnisstand bisher keine gravierenden Sicherheitsvorfälle gegeben, die gegenüber dem BSI meldepflichtig sind“, sagt Kerstin Andreae vom Bundesverband der Energie- und Wasserwirtschaft (BDEW) auf Anfrage heise onlines.

Sie plädiert für klarere Regelungen. Denn durch die unterschiedlichen Eigenschaften von Autos als Produkt mit digitalen Elementen, Ladesäulen als Teil der Energienetze und Autoakkuverbünden als virtuelle Kraftwerke und somit potenzieller Teil Kritischer Infrastruktur greifen ganz unterschiedliche Vorschriften parallel, wie auch das BSI beschreibt. „Für den Hochlauf des Massenmarktes stellt sich daher die Frage, welche nachhaltig tragfähigen, pragmatischen Lösungsansätze im europäischen Binnenmarkt verfolgt werden können“, meint Kerstin Andreae. Sie fordert bessere Abstimmung über die einzelnen Vorschriften hinweg, ohne Sonderwege und Doppelregulierung.

Wären alle Ladesäulen ferngesteuert, kämen 8,5 Gigawatt steuerbare Leistung zusammen – ein Viertel mehr Leistung als vor einem Jahr. Das Bundesverkehrsministerium, das den „Masterplan Ladesäuleninfrastruktur 2030“ verantwortet, hat dazu bislang keine Initiative gezeigt.


(ds)



Source link

Weiterlesen

Beliebt