Connect with us

Künstliche Intelligenz

Es knirscht bei der SAP-Umstellung der Bundeswehr


Auch die Bundeswehr ist SAP-Kunde und muss den Umstieg auf SAPs neue Generation S4/HANA bewältigen. Doch das läuft offenbar nicht so wie geplant. Denn die Informationsweitergabe über die Software läuft nicht zuverlässig.

Weiterlesen nach der Anzeige

„Die fehlerfreie Weitergabe von Daten kann zum jetzigen Zeitpunkt nicht verlässlich sichergestellt werden“, zitiert das Nachrichtenmagazin Spiegel aus einem vertraulichen Papier des Verteidigungsministeriums. Zuvor habe die Bundeswehr ihre Testzeiträume immer weiter verlängern müssen. Ein weiterer interner Sachstandsbericht von September spricht laut Spiegel schon von „mangelhafter Funktionalität“ und „nicht ausreichender Einsatzreife“. Eigentlich hätte S4/HANA noch im Oktober live gehen sollen. Doch es gibt Probleme mit etlichen verbundenen Anwendungen.

Die Probleme sieht wohl auch SAP selbst. Schon Ende August soll der SAP-Vorstand laut dem internen Papier „mangelnde Softwarequalität“ eingeräumt und eine Verschiebung des Starts auf Frühjahr 2026 empfohlen haben.

Noch mehr Spielraum will der zuständige Abteilungsleiter für Rüstung und Organisation. Der Spiegel zitiert eine Anmerkung zu dem Vorgang, in der er für eine „eine unkonkrete Formulierung“ wie „binnen Jahresfrist o.ä.“ plädiert. Er betont demnach auch, die Verschiebung sei „zwingend erforderlich“ gewesen. Alle Beteiligten bräuchten ein Mindestmaß an Zeit, um „die Lösung weiter zu optimieren und so die Akzeptanz in der Bundeswehr insgesamt zu verbessern“. Anscheinend waren die Probleme also nicht nur technischer Natur.

Im Juni kündigte Google an, die Bundeswehr mit speziellen Cloud zu beliefern, die auch die SAP-Landschaft der Truppe beheimaten soll. Die „pCloudBw“, die private Bundeswehr-Cloud mit eigenen Rechenzentren, soll aus zwei physikalisch getrennten Instanzen bestehen. Eine für offene und eine für geschützte Daten.

Weiterlesen nach der Anzeige

Geschäftskritische Anwendungen sollen auf der „Business Technology Platform“ (BTP) von SAP im sicheren Betrieb im eigenen Rechenzentrum oder Netzwerk laufen. Die Bundeswehr nutzt die SAP-Software für logistisch-administrative Zwecke. Sie kommt nur mit bestimmten Systemen zurecht, eine offene Lösung wie OpenStack gehört nicht dazu.

Die Cloud-Umgebung kann physisch isoliert vom öffentlichen Internet und anderen Google-Systemen in eigenen Rechenzentren der Bundeswehr installiert und betrieben werden, was Google „air-gapped“ bezeichnet und beteuert: „Die Bundeswehr besitzt so zu jeder Zeit die Kontrolle über die eigenen Daten und kommt damit ihrer Anforderung nach Informations- und Datensicherheit nach.“

Der verkorkste Wechsel auf S4/HANA ist bereits das zweite große Digitalprojekt, das bei der Bundeswehr Probleme macht. Auch die Ausrüstung des Heeres mit digitalen Funkgeräten läuft desaströs. Millionen für Berater sollen es jetzt richten.


(nen)



Source link

Künstliche Intelligenz

Apple Fitness+ künftig mit synchronisierten Tonspuren in Deutsch und Spanisch


Apple will seinen Dienst Fitness+ durch synchronisierte Tonspuren attraktiver für Nutzer in nicht-englischsprachigen Ländern machen. Bislang gibt es zwar schon Untertitel, wer sich während eines Trainings anfeuern lassen möchte und nur zuhören kann, muss jedoch der englischen Sprache mächtig sein. Der iPhone-Hersteller kündigte an, dass der Fitness- und Wellness-Service ab Montag, 15. Dezember, eine Synchronisation in Deutsch und Spanisch anbietet. Außerdem wird die Verfügbarkeit von Fitness+ auf zusätzliche Länder erweitert.

Weiterlesen nach der Anzeige

Bei der Synchronisation der englischsprachigen Anleitungen setzt Apple auf Künstliche Intelligenz. Die Übersetzung erfolge mit digital synchronisierten Sprachen, heißt es in der Medienmitteilung. Es sei die größte Erweiterung des Services seit seiner Einführung vor fünf Jahren. Nach Deutschland kam der Dienst im Jahr 2021. Für den Start der Übersetzungen seien bereits Hunderte von Fitness+-Trainings und Meditationen mit einer computergenerierten Stimme auf Deutsch und Spanisch digital synchronisiert worden, wobei jede Woche weitere synchronisierte Episoden hinzukommen sollen.

Die synchronisierten Trainings und Meditationen verfügen laut Apple über eine computergenerierte Stimme, die auf den Stimmen der 28 Fitness+-Trainer basiert. Die Trainings und Meditationen bieten zusätzlich auch Untertitel. Anfang nächsten Jahres folgt Japanisch als weitere übersetzte Sprache.

Nutzer können die Audiosprache auswählen, nachdem sie ein synchronisiertes Training oder eine Meditation gestartet haben. Wenn man in den Einstellungen der Fitness App Deutsch, Japanisch oder Spanisch auswählt, wird die Episode automatisch in dieser Sprache abgespielt, sofern eine synchronisierte Version verfügbar ist. Für das Abrufen der Synchronisation sind iOS 26.1, iPadOS 26.1 oder tvOS 26.1 nötig.

Weiterlesen nach der Anzeige

Apple Fitness+ ist als Abonnement für 9,99 Euro pro Monat oder 79,99 Euro pro Jahr verfügbar. Aktuell ist der Dienst in Australien, Brasilien, Deutschland, Frankreich, Großbritannien, Indonesien, Irland, Italien, Kanada, Kolumbien, Malaysia, Mexiko, Neuseeland, Österreich, Portugal, Russland, Saudi-Arabien, der Schweiz, Spanien, den USA und den Vereinigten Arabischen Emiraten verfügbar. Ab dem 15. Dezember kommen Chile, Hongkong, Indien, die Niederlande, Norwegen, die Philippinen, Polen, Schweden, Singapur, Taiwan, Vietnam und 17 weitere Länder und Regionen hinzu.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Anthropic-Philosophin erklärt: So schreiben sie wirklich gute Prompts


Gute Kommunikation ist der Schlüssel zu guten Ergebnissen – das gilt auch im Umgang mit KI-Tools. Amanda Askell, die als Philosophin und KI-Forscherin bei Anthropic tätig ist, hat im „Ask Me Anything“-Podcast des Unternehmens ihren Ansatz für effektives KI-Prompting vorgestellt. Sie sagt, dass ein ausgewogenes Verhältnis zwischen mehreren Faktoren erforderlich sei. Ein Grundpfeiler bestehe beispielsweise darin, Ideen klar und präzise zu kommunizieren.

Weiterlesen nach der Anzeige

Askell hat an der New York University zu „Unendlicher Ethik“ promoviert. Zuvor hatte sie ihr Philosophiestudium an der University of Oxford abgeschlossen. Seit 2021 ist sie bei Anthropic tätig, wo sie sich mit der Entwicklung und Bewertung von KI-Systemen, insbesondere großen Sprachmodellen, befasst. Sie leitet ein Team, das Modelle so trainiert, dass sie ehrlicher werden und positive Charaktereigenschaften entwickeln. Zuvor war sie knapp zweieinhalb Jahre als Forscherin bei OpenAI tätig, wo sie sich vor allem mit dem Thema KI-Sicherheit befasste. In Anthropics Podcast hat sie jetzt versucht, ihren Denkprozess zu erklären, den sie beim Erstellen guter Prompts anwendet.

„Es ist wirklich schwer, das Wesentliche auf den Punkt zu bringen, denn es geht zum einen darum, bereit zu sein, viel mit den Modellen zu interagieren und sich wirklich jedes einzelne Ergebnis anzuschauen“, sagte sie. Um einen guten Prompt zu erstellen, müsse man experimentierfreudig sein. Aber das Prompting ginge noch weit über einfaches Experimentieren hinaus. „Hier denke ich tatsächlich, dass Philosophie in gewisser Weise für das Prompting nützlich sein kann, denn ein Großteil meiner Arbeit besteht darin, dem Modell bestimmte Probleme, Bedenken oder Gedanken so klar wie möglich zu erklären.“

Der Fokus auf klare Kommunikation sei nicht nur wichtig, um Menschen dabei zu helfen, ihre eigenen Prompts zu verfeinern – sondern auch, um die KI selbst besser zu verstehen. In einer „Prompt Engineering Overview“, die Anthropic im Juli veröffentlichte, erklärte das Unternehmen, dass Nutzer KI-Tools wie neue Mitarbeiter behandeln sollten, die klare Anweisungen benötigen. Da Claude kein Wissen über die internen Richtlinien und bevorzugten Arbeitsweisen hat, muss ihm genau erklärt werden, wie er seine Aufgaben ausführen soll, um gute Ergebnisse erzielen zu können.

Die Arbeit von Askell zeigt: Der Beruf des Prompt Engineerings ist noch lange nicht ausgestorben. Mit der Veröffentlichung von ChatGPT und dem dadurch ausgelösten KI-Hype wurden Prompt Engineers innerhalb kürzester Zeit zu gefragten Fachkräften, die nicht selten ein sechsstelliges Gehalt verdienten. Zwar ist der Bedarf inzwischen zurückgegangen, trotzdem haben Experten in diesem Bereich noch immer nicht an Relevanz verloren. Zwar ist die Nutzung großer Sprachmodelle deutlich einfacher geworden, aber die Empfehlungen der Anthropic-Philosophin legen nahe, dass nicht jeder Prompt zum gewünschten Ergebnis führt. Damit Claude und Co. ihr Potenzial entfalten können, braucht es vor allem präzise formulierte Anweisungen.

Weiterlesen nach der Anzeige

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

DGX Spark: Nvidias Desktop-KI-Computer im Test


Um es direkt vorwegzunehmen: Der DGX Spark ist kein No-Brainer. Als Nvidia das Gerät als „Supercomputer auf dem Schreibtisch“ vorstellte, suggerierte das eine kompakte, universell einsetzbare KI-Workstation. Doch wer hohe Inferenzleistung oder ein System für das Training großer Sprachmodelle sucht, wird mit dem Spark nicht glücklich. Die ersten praxisnahen Messungen zeichnen ein klares Bild: Für Anwender, die primär GPU-Leistung benötigen, führt an klassischen Workstations mit dedizierten Karten wie der RTX Pro 6000 Blackwell mit 96 GByte kein Weg vorbei.

Der Spark verfolgt ein neues Konzept und scheitert gerade deshalb in vielen traditionellen Disziplinen. Die entscheidende Limitierung liegt nicht in der Rechenleistung des GB10-GPU-Chips, sondern in der geringen Speicherbandbreite des verbauten LPDDR5X-Speichers. Das macht ihn in klassischen Inferenz- oder Trainings-Workloads unweigerlich zum Memory-bound-System – die Speichergeschwindigkeit wird hier zum Engpass.

  • Der DGX Spark ist keine universelle KI-Workstation, sondern besetzt eine Nische für energieeffiziente 24/7-Batchprozesse und Aufgaben mit großen Eingaben und kleinen Ausgaben wie RAG-Pipelines, Dokumentenanalyse und Klassifikationsaufgaben.
  • Die Hauptlimitierung liegt in der geringen Speicherbandbreite (273 GByte/s LPDDR5X), nicht in der Rechenleistung des GB10-Chips.
  • Mit 128 GByte Unified Memory kann der DGX Spark Modelle vollständig im Speicher halten, die bisher zu groß für Desktop-GPUs sind, zum Beispiel GPT-OSS-120B, Falcon 180B und diverse 70B-Modelle.
  • Der eigentliche Mehrwert liegt im ausgereiften CUDA-Ökosystem mit nahtloser Übertragbarkeit auf größere DGX-Systeme.


Danny Gerst

Danny Gerst

Danny Gerst bringt 30 Jahre Erfahrung in der Softwareentwicklung mit. Als Strategieberater und Visionär für den Mittelstand ist er auf das Automatisieren von Prozessen mit und ohne KI spezialisiert.

Statt eine universelle KI-Workstation zu sein, besetzt der DGX Spark eine eng umrissene, technisch interessante Nische. Das Gerät eignet sich für energieeffiziente 24/7-Batchprozesse, reproduzierbare CUDA-Umgebungen vor Ort oder Aufgaben mit großen Eingaben und kleinen Ausgaben wie in RAG-Pipelines, der Dokumentenanalyse oder bei Klassifikationsaufgaben.


Das war die Leseprobe unseres heise-Plus-Artikels „DGX Spark: Nvidias Desktop-KI-Computer im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt