Connect with us

Künstliche Intelligenz

Über den Chat hinaus: Mit LLMs echte Nutzerprobleme lösen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Seit dem Erscheinen von ChatGPT ist das Chat-Fenster das zentrale User-Interface für die Interaktion mit künstlicher Intelligenz. Doch ist ein Chat tatsächlich die optimale Möglichkeit zur Interaktion – oder gibt es möglicherweise besser geeignete Wege, KI in Anwendungen zu integrieren?


Sascha Lehmann

Sascha Lehmann

Sascha Lehmann war mit seinem ersten PC schon klar, in welche Richtung die Reise geht. Durch Desktop- und Backend-Entwicklung im .NET-Umfeld fand er über die Jahre hinweg zu seiner wahren Leidenschaft, der Webentwicklung. Als Experte im Angular- und im UI/UX-Umfeld hilft er bei der Thinktecture AG in Karlsruhe tagtäglich Kunden bei ihren Herausforderungen und Vorhaben.

In den vergangenen Jahren haben KI-Werkzeuge die Welt im Sturm erobert. KI-Funktionen hielten Einzug in alltäglich genutzte Software – sei es in Entwicklungsumgebungen (IDEs), Office-Programmen oder sogar bei der Erstellung der Steuererklärung. Und fast überall kann man mit der Software chatten. Doch warum eigentlich?

Die Stärken großer Sprachmodelle liegen insbesondere darin, unterschiedlichste Arten von Informationen zu verarbeiten und in natürlicher Sprache mit Nutzerinnen und Nutzern zu kommunizieren. Dafür benötigen sie Eingaben – ebenfalls in natürlicher Sprache. Was läge also näher, als per Texteingabe mit ihnen zu interagieren?

Auch aus Sicht der User-Experience (UX) bietet sich der Chat als Interface zunächst an. Nahezu jede und jeder kennt dieses mentale Modell – also die grundsätzliche Funktionsweise und das Erscheinungsbild eines Chatfensters – und kann es intuitiv nutzen, ohne vorherige Schulung. Gerade diese Niedrigschwelligkeit war einer der entscheidenden Faktoren für den durchschlagenden Erfolg von ChatGPT und vergleichbaren Anwendungen.

Bei genauerer Betrachtung kann das Interaktionsmodell „Chat“ jedoch nicht ohne Weiteres ebenso erfolgreich auf andere Einsatzbereiche übertragen werden. So hilfreich es sein kann, beliebige Fragestellungen in einem offenen Chat mit einer KI zu diskutieren, umso schneller verliert dieses Modell seinen Reiz, sobald es in einem klar definierten Anwendungskontext zum Einsatz kommt. Der Rahmen ist dort meist deutlich enger gesteckt, was neue Herausforderungen aufwirft – beispielsweise:

  • Wie kann ein Chat sinnvoll in den Anwendungskontext integriert werden?
  • Welchen konkreten Mehrwert bietet die KI-Funktion gegenüber etablierten Arbeitsabläufen?
  • Wie können fachspezifische Informationen kontextbezogen eingebunden werden?

Ohne gezielte Unterstützung – etwa Hinweise zu möglichen Interaktionen oder zum verfügbaren Domänenwissen und dessen Nutzung im Chat – fühlen sich viele Nutzerinnen und Nutzer schnell überfordert. Bleiben erste Interaktionen zudem erfolglos, führt das häufig zu Frustration – und das beworbene KI-Feature wird nur noch zögerlich oder gar nicht mehr verwendet. Es entsteht der Eindruck, die neue Technologie sei lediglich um ihrer selbst willen integriert worden.

Ein solches Nutzungserlebnis gilt es unbedingt zu vermeiden. KI-Funktionen – wie auch alle anderen Features – müssen einen klaren Mehrwert bieten. Sei es durch eine Erweiterung des Funktionsumfangs oder durch die Vereinfachung zuvor mühsamer Aufgaben.

Ein blanker Chat erzeugt – ähnlich wie die berüchtigte leere Seite beim Schreiben einer Hausarbeit – eine zu hohe kognitive Last, also eine Art Überforderungs- oder Lähmungszustand. Um dem entgegenzuwirken, können Vorschläge (Suggestions), hilfreich sein: kleine Container mit konkreten Prompt-Hinweisen.


"Vorschlagskarten" (hier für Chat-GPT) helfen die anfängliche Überforderung zu reduzieren und Interaktionshinweise zu geben.

"Vorschlagskarten" (hier für Chat-GPT) helfen die anfängliche Überforderung zu reduzieren und Interaktionshinweise zu geben.

„Vorschlagskarten“ (hier für Chat-GPT) helfen, die anfängliche Überforderung zu reduzieren und Interaktionshinweise zu geben.

(Bild: Shape of AI)

Diese Suggestions sind Teil einer Sammlung von UX-Patterns (Shape of AI) rund um den Einsatz von KI- und Chat-Integrationen. Da künstliche Intelligenz nach wie vor ein junges Themenfeld ist, werden in den kommenden Jahren zunehmend weitere dieser Gestaltungsmuster entstehen, auf die Entwicklerinnen und Entwickler bei der Konzeption und Entwicklung zurückgreifen können. Dennoch empfiehlt es sich, bereits heute solche Patterns zu nutzen, um Usern einen einfachen und intuitiven Einstieg zu ermöglichen.

Die kognitive Last ist nicht die einzige Schwachstelle von Chat-basierten Interfaces. Bei längeren Konversationen kann es dazu kommen, dass das Kontextfenster – sozusagen das Kurzzeitgedächtnis des LLM, um Informationen der Konversation zu halten – des aktuell verwendeten Sprachmodells ausgeschöpft ist. In solchen Fällen müssen User auf einen neuen Chat ausweichen. Da LLMs jedoch über kein dauerhaftes Gedächtnis verfügen, ist es notwendig, bei diesem Wechsel eine Zusammenfassung des bisher Gesagten mitzugeben – nur so kann an vorherige Ergebnisse angeknüpft werden.

Zudem neigen LLMs in Konversationen gelegentlich zu Halluzinationen oder verlieren sich bei unpräzisen Eingaben in einem ineffizienten Hin und Her. Besonders problematisch wird das, wenn die Nutzerin oder der Nutzer bereits eine klare Vorstellung vom gewünschten Ergebnis hat. Die Herausforderung liegt darin, die eigene Intention so klar zu formulieren, dass das Modell sie korrekt interpretiert – ganz nach dem Motto: „Tu, was ich will – nicht, was ich sage.“

Gibt es also jenseits des klassischen Chat-Interfaces klügere Wege, Nutzerinnen und Nutzern KI-Funktionen zugänglich zu machen – möglichst in kleinen, leicht verdaulichen Einheiten, sodass Überforderung gar nicht erst entsteht?

Ein genauer Blick auf die Stärken großer Sprachmodelle zeigt Fähigkeiten, die im Alltag besonders hilfreich sein können:

  • Verständnis und Verarbeitung natürlicher Sprache
  • umfangreiches Weltwissen
  • vielfältige Einsatzgebiete und enorme Anpassbarkeit
  • Multimodalität – Verarbeitung von Text-, Audio- und Bilddaten (ohne Modellwechsel)
  • Echtzeitsprachverarbeitung
  • Erkennung und Analyse von Patterns

Immer wieder gibt es Anwendungsszenarien, in denen Daten aus Dokumenten, Bildern oder Videos zu extrahieren und in strukturierter Form weiterzuverarbeiten sind – etwa bei Formularen. Das Ausfüllen langer Formulare zählt in der Regel nicht zu den beliebtesten Aufgaben im Alltag.

Gerade hier besteht deutliches Potenzial zur Verbesserung der User-Experience. Doch wie könnte ein optimierter „Befüllungs-Workflow“ konkret aussehen?

Für die Arbeit mit Formularen stehen im Web und in etablierten Frameworks umfangreiche Schnittstellen (Application Programming Interfaces, APIs) zur Verfügung. Die zugrunde liegende Struktur eines Formulars wird dabei häufig in Form eines JSON-Objekts (JavaScript Object Notation) definiert.

Das Listing zeigt eine exemplarische Deklaration einer FormGroup (inklusive Validatoren) innerhalb einer Angular-Anwendung.


 personalData: this.fb.group({
      firstName: ['', Validators.required],
      lastName: ['', Validators.required],
      street: ['', Validators.required],
      zipCode: ['', Validators.required],
      location: ['', Validators.required],
      insuranceId: ['', Validators.required],
      dateOfBirth: [null as Date | null, Validators.required],
      telephone: ['', Validators.required],
      email: ['', [Validators.required, Validators.email]],
      licensePlate: ['', Validators.required],
    }),


Dieses JSON-Objekt stellt den ersten Baustein des Workflows dar und definiert zugleich die Zielstruktur, in die das System die extrahierten Informationen überführt. Den zweiten Baustein bilden die Quelldaten in Form von Text, Bildern oder Audio. Zur vereinfachten Darstellung liegen sie im folgenden Szenario in Textform vor und sollen über die Zwischenablage in das System übertragen werden.

Bleibt noch ein dritter Aspekt: Entwicklerinnen und Entwickler müssen das Sprachmodell instruieren – sie müssen ihm eine präzise Aufgabenbeschreibung geben, um den gewünschten Verarbeitungsschritt korrekt durchzuführen. Diese Instruktion erfolgt im Hintergrund, vor dem User versteckt.

Auch wenn Entwicklerinnen und Entwickler bewusst auf ein Chat-Interface verzichten, arbeiten Sprachmodelle weiterhin auf Basis von Instruktionen in natürlicher Sprache. Um Usern die Formulierungs- und Eingrenzungsarbeit abzunehmen, können diese Anweisungen vorab als sogenannte System-Messages oder System-Prompts im Programmcode hinterlegt werden.

Der Vorteil dieses Ansatzes liegt darin, dass die Befehle standardisiert und in konsistenter Qualität an das LLM übermittelt werden können. Zudem ist es möglich, diese Prompts mit Guards zu versehen – ergänzenden Anweisungen, die Halluzinationen vorbeugen oder potenziellem Missbrauch entgegenwirken sollen.

Nachfolgend eine exemplarische Darstellung eines System Prompt mit einer gezielten Aufgabe für das LLM:


Each response line must follow this format:
FIELD identifier^^^value

Provide a response consisting only of the following lines and values derived from USER_DATA:

${fieldString}END_RESPONSE

Do not explain how the values are determined.
For fields without corresponding information in USER_DATA, use the value NO_DATA.
For fields of type number, use only digits and an optional decimal separator.


In modernen Frontend-Applikationen ist es üblich, dass Schnittstellen ihre Antworten im JSON-Format liefern, da diese Datenstruktur leicht weiterverarbeitet werden kann.

Für möglichst präzise und verlässliche Ergebnisse kann die erwartete Zielstruktur mithilfe des JSON Mode definiert werden – in Form eines JSON-Schemas. Es beschreibt die Felder nicht nur strukturell, sondern auch mit genauen Typinformationen. Das erspart ausführliche textuelle Erläuterungen und erleichtert die Verarbeitung der Ergebnisse im Frontend.

Um Typsicherheit in der Anwendung sicherzustellen, kommt häufig Zod zum Einsatz – eine auf TypeScript ausgerichtete Validierungsbibliothek, mit der Datenstrukturen, von einfachen Strings bis hin zu komplexen geschachtelten Objekten, deklarativ definiert und zuverlässig geprüft werden können.

Das folgende Listing von OpenAI zeigt einen exemplarischen Aufruf der OpenAI-API, um Daten in einem bestimmten JSON Format zu extrahieren.


import OpenAI from "openai";
import { zodTextFormat } from "openai/helpers/zod";
import { z } from "zod";

const openai = new OpenAI();

// JSON-Schema-Definition mithilfe von Zod
const CalendarEvent = z.object({
  name: z.string(),
  date: z.string(),
  participants: z.array(z.string()),
});

const response = await openai.responses.parse({
  model: "gpt-4o-2024-08-06",
  input: [
    { role: "system", content: "Extract the event information." },
    {
      role: "user",
      content: "Alice and Bob are going to a science fair on Friday.",
    },
  ],
  text: {
    format: zodTextFormat(CalendarEvent, "event"),
  },
});

const event = response.output_parsed;


Um System-Prompts und Quelldaten an ein LLM zu übermitteln, stehen je nach Anbieter verschiedene SDKs (Software Development Kits) zur Verfügung. Das obige Listing zeigt beispielsweise die Verwendung des OpenAI-SDK. Weitere Beispiele führender Anbieter sind Anthropic und Google. Sie bieten jeweils umfangreiche Funktionen, hohe Performance und eine benutzerfreundliche Developer-Experience, die den Einsatz der SDKs erleichtert.

Selbstverständlich ist die Nutzung von KI-Modellen nicht auf webbasierte Angebote großer Anbieter beschränkt. Wer mit kleineren Modellen für seine Aufgaben auskommt, kann ebenso lokal laufende Modelle verwenden oder auf im Browser integrierte Modelle wie WebLLM zurückgreifen.

Nach der erfolgreichen Implementierung und Abstraktion der SDK-Aufrufe genügt bereits ein Dreizeiler für das vollständige Parsing.

Es folgt eine exemplarische Darstellung des Ablaufs eines Extraktionsvorgangs anhand einer in Angular definierten FormGroup:


/* User Message – Datenquelle, aus der Daten zum Befüllen des Formulars extrahiert werden sollen. Diese werden in die Zwischenablage kopiert

Max Mustermann
77777 Musterstadt
Kfz-Kennzeichen: KA-SL-1234
Versicherungsnummer: VL-123456

*/

// Angular FormGroup zum Erfassen persönlicher Daten
personalData: this.fb.group({
  firstName: ['', Validators.required],
  lastName: ['', Validators.required],
  street: ['', Validators.required],
  zipCode: ['', Validators.required],
  location: ['', Validators.required],
  insuranceId: ['', Validators.required],
  dateOfBirth: [null as Date | null, Validators.required],
  telephone: ['', Validators.required],
  email: ['', [Validators.required, Validators.email]],
  licensePlate: ['', Validators.required],
}),

// JSON-Schema, das mit Zod anhand der FormGroup erstellt wurde
{
    "firstName": {
        "type": "string"
    },
    "lastName": {
        "type": "string"
    },
    "street": {
        "type": "string"
    },
    "zipCode": {
        "type": "string"
    },
    "location": {
        "type": "string"
    },
    "insuranceId": {
        "type": "string"
    },
    "dateOfBirth": {
        "type": "object"
    },
    "telephone": {
        "type": "string"
    },
    "email": {
        "type": "string"
    },
    "licensePlate": {
        "type": "string"
    }
}

// Antwort des LLM
[
    {
        "key": "firstName",
        "value": "Max"
    },
    {
        "key": "lastName",
        "value": "Mustermann"
    },
    {
        "key": "location",
        "value": "Musterstadt"
    },
    {
        "key": "zipCode",
        "value": "77777"
    },
    {
        "key": "licensePlate",
        "value": "KA-SL-1234"
    },
    {
        "key": "insuranceId",
        "value": "VL-123456"
    }
]

// Befüllen des Formulars mit den Ergebnissen (hier eine Angular FormGroup --> personalData)
try {
  const text = await navigator.clipboard.readText();
  const completions = await this.openAiBackend.getCompletions(fields, text);
  completions.forEach(({ key, value }) => this.personalData.get(key)?.setValue(value));
} catch (err) {
  console.error(err);
}


Aufwendige Ausfüllarbeiten gehören von nun an der Vergangenheit an und können dank geschickt eingesetzter KI-Unterstützung mühelos erledigt werden.

Dieses Beispiel zeigt einen ausgeführten Extraktionsvorgang: Zunächst wird der Text mit Informationen in die Zwischenablage kopiert, dann der Extraktionsvorgang gestartet, und schließlich stehen automatisch befüllte Formularfelder anhand der Textinformation bereit.


 Darstellung des Ablaufs eines Extraktionsvorgangs aus Sicht der User (in drei Schritten, von oben nach unten): Text mit Informationen in Zwischenablage kopieren; Extraktionsvorgang starten; automatisch befüllte Formularfelder anhand der Textinformation.

 Darstellung des Ablaufs eines Extraktionsvorgangs aus Sicht der User (in drei Schritten, von oben nach unten): Text mit Informationen in Zwischenablage kopieren; Extraktionsvorgang starten; automatisch befüllte Formularfelder anhand der Textinformation.

Darstellung des Ablaufs eines Extraktionsvorgangs aus Sicht der User (in drei Schritten, von oben nach unten).

Diese Integration allein verbessert die UX enorm. Bei genauerer Betrachtung fallen aus UX-Designer-Sicht allerdings noch weitere Möglichkeiten auf:

Wie steht es etwa um die Nachvollziehbarkeit? Aktuell werden anhand des übermittelten Textes oder Bildes die Felder des Formulars automatisch befüllt. Zudem kann der Nutzer oder die Nutzerin das Formular nach Belieben selbst anpassen und editieren. Das mag in den meisten Fällen ausreichend und unproblematisch sein. Doch in bestimmten Kontexten reicht das allein nicht aus – beispielsweise bei rechtlich verbindlichen Themen wie Versicherungen oder Banking. Hier muss unter Umständen ersichtlich sein, welche Felder von einem Menschen und welche mithilfe von KI-Unterstützung befüllt wurden. Aus UX-Gründen ist es außerdem sinnvoll, Nutzern transparent zu vermitteln, wie einzelne Feldwerte zustande gekommen sind.

Ein Blick auf die großen Player zeigt: Wenn es um die Visualisierung von KI-generierten Inhalten geht, kommen oftmals Farbverläufe, Leucht- und Glitzereffekte zum Einsatz. Die folgenden Beispiele zeigen die visuelle Gestaltung von KI-Inhalten anhand der Designsprache von Apple und Google.


Beispiele für die Designsprachen von Apple (oben) und Google (unten) in Bezug auf deren AI-Produkte.

Beispiele für die Designsprachen von Apple (oben) und Google (unten) in Bezug auf deren AI-Produkte.

Beispiele für die Designsprachen von Apple (oben) und Google (unten) in Bezug auf deren AI-Produkte.

(Bild: Apple; Google)

Warum also nicht dieses Pattern aufgreifen und für eigene Integrationen nutzen? Die großen Anbieter verfügen über UI/UX-Research-Budgets, von denen kleinere Unternehmen nur träumen können. Es liegt nahe, sich hier inspirieren zu lassen, zumal die hohe Reichweite bereits neue visuelle Standards prägt – Nutzer sind mit derartigen Darstellungen zunehmend vertraut.

Eine exemplarische Umsetzung im gezeigten Formularszenario könnte darin bestehen, automatisch befüllte Felder mit einem leuchtenden Rahmen (Glow-Effekt) zu versehen. Diese einfache Maßnahme schafft eine klare visuelle Unterscheidbarkeit – und verbessert gleichzeitig die User-Experience.


Automatisch befüllte Felder sind durch einen leuchtenden Rahmen (Glow-Effekt) hervorgehoben.

Automatisch befüllte Felder sind durch einen leuchtenden Rahmen (Glow-Effekt) hervorgehoben.

Automatisch befüllte Felder sind durch einen leuchtenden Rahmen (Glow-Effekt) hervorgehoben.

Um die Nachvollziehbarkeit weiter zu verbessern, können Entwickler eine History-Funktion einbauen: Sie zeigt, welche automatischen Extraktionen wann passiert sind – inklusive der genutzten Quellen (Texte, Sprache oder Bilder). So haben User jederzeit den Überblick und können bei Bedarf einfach per Undo/Redo zu einem früheren Zustand zurückspringen.



Source link

Künstliche Intelligenz

Intel: 5,7 Milliarden US-Dollar erhalten, Aktie wird verwässert


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Intels Finanzchef David Zinsner hat den Erhalt von 5,7 Milliarden US-Dollar von der US-Regierung bestätigt. Zudem ist jetzt klar, woher die Aktien für den 9,9-Prozent-Anteil der Regierung stammen: Intel gibt rund 433 Millionen neue Aktien für die US-Regierung heraus, statt bestehende eigene Anteile zu verkaufen.

Das sagte Zinsner im Rahmen der Deutsche Bank 2025 Technology Conference (Aufnahme bei Intel, Transkript bei Seekingalpha). Er gab zu, dass dieser Vorgang den Aktienkurs verwässert. Bestehende Aktionäre müssen sich also auf einen sinkenden Wert einstellen. Intel legt den Fokus aktuell auf Geld, um den Konzern zu stabilisieren. Wenn es langfristig bergauf geht, würden Aktionäre davon profitieren, argumentiert der Finanzchef.

Zinsner stellt das neue Abkommen mit der US-Regierung als vorteilhaft dar, obwohl die vorherige Biden-Regierung dieselbe Summe als Subvention zugesagt hatte. Demnach wäre zweifelhaft gewesen, ob Intel die ausgehandelten Meilensteine zur Auszahlung der restlichen Gelder überhaupt erreicht hätte.

Wie die Meilensteine aussahen, verraten die beteiligten Parteien wie üblich nicht. Denkbar wäre die Errichtung abgemachter Fertigungskapazität und die zeitige Verfügbarkeit neuer Fertigungsprozesse. Intel hat den Bau neuer Halbleiterwerke aus Geldnot jedoch verschoben oder komplett ausgesetzt.

Zudem hätte die US-Regierung Rückforderungsrechte auf bereits 2,2 Milliarden Dollar ausgezahlte Fördermittel gehabt. Auf diese Klausel verzichtet die Regierung jetzt.

Die Bilanzaufstellung für das laufende Quartal dürfte für Intel derweil gut aussehen: Neben den 5,7 Milliarden Dollar von der US-Regierung erhält der Konzern zwei Milliarden vom Investor Softbank. Eine Milliarde kommt durch den Teilverkauf der Automotive-Sparte Mobileye rein, weitere 4,5 Milliarden folgen durch den anstehenden Teilverkauf des FPGA-Designers Altera (Zinsner sprach von 3,5 Milliarden, dabei sollte es sich jedoch um einen Versprecher gehandelt haben). Das ergibt gut 13 Milliarden Dollar.

Intel will derweil weitere Investoren für die Chipfertigungssparte Intel Foundry finden. Sie verursacht derzeit jedes Quartal Milliardenminus, seitdem Intels CPU-Sparte ihre Chips zu branchenüblichen Preisen bei der Schwestersparte einkauft. Intel hofft auf die Fertigungsgeneration 14A für weitere Kunden.

Ganz veräußern will Intel die Foundry derweil nicht. Die Firma muss die nächsten fünf Jahre mindestens 51 Prozent der Anteile halten, ansonsten hat die US-Regierung ein Anrecht auf den günstigen Kauf fünf weiterer Prozent des Restkonzerns.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Bcachefs-Dateisystem verbleibt offenbar stagnierend in Linux


Nach wiederholten Unstimmigkeiten mit dem Entwickler des Dateisystem Bcachefs hat Linus Torvalds den Bcachefs-Code von Linux nun als „extern gewartet“ deklariert. Die Kennzeichnung ist ein Novum – und da der Erfinder und leitende Entwickler des Kernels sie nicht näher erläutert hat, ist unklar, was sie genau bedeutet. Der gemeinhin erwartete und von Torvalds mehrfach in Aussicht gestellte Rauswurf der in Linux als experimentell geltenden Bcachefs-Unterstützung ist damit aber allem Anschein vorerst vom Tisch.

Zugleich spricht die neue Auszeichnung jedoch auch dafür, dass der im Kernel erhaltene Bcachefs-Code bis auf Weiteres nicht groß verändert werden wird – er bleibt damit auf dem Stand von Linux 6.16, denn Torvalds hatte die Änderungen nicht integriert, die Bcachefs-Entwickler Kent Overstreet für die derzeit vorbereitete Version 6.17 eingereicht hatte. Bereits Bcachefs verwendende Nutzer können durch den Verbleib allerdings gefahrlos auf 6.17 und spätere Kernel-Versionen wechseln – der Ansatz vermeidet so eine „Regression“ für Nutzer, die bei der Linux-Entwicklung untersagt ist, weil das Torvalds ein großer Dorn im Auge ist.


Quellcode-Änderung

Quellcode-Änderung

Was Torvalds Statusänderung genau bedeutet, ist unklar.

(Bild: heise medien)

Problemlos klappen Kernel-Updates zumindest, solange Nutzer und Distributionen nicht Kernel mit neuerem Bcachefs-Code verwenden, den Overstreet extern pflegt: Dieser oder zugehörige Userspace-Werkzeuge könnten bei einmaliger Verwendung inkompatible Änderungen an den Dateisystemstrukturen vornehmen, woraufhin der Bcachefs-Code des offiziellen Kernels dann das Einhängen des Dateisystems verweigern sollte.

Prinzipiell wäre es möglich, dass jemand anders als Mittler agiert und neueren Bcachefs-Code von Overstreet nimmt und zur Aufnahme in Linux an Torvalds schickt und dort die Pflege übernimmt. So eine Person geriete aber vermutlich schnell zwischen die Fronten, was die Arbeit enorm schwer macht. Vor einer Weile gab es mal einen Bcachefs-Mitentwickler, der offenbar gewillt war, so eine Postion einzunehmen – er hat jedoch der Bcachefs-Entwicklung nach Streit mit Overstreet aber den Rücken gekehrt.

Kent Overstreet war mit Torvalds unter anderem angeeckt, weil er in der Stabilisierungsphase neuer Kernel-Version mehrfach größere Änderungen zur Aufnahme einreichte. Die waren aus Torvalds Perspektive gefährlich und hätten daher einige Wochen bis zum Beginn der Entwicklung der darauffolgenden Version warten sollen. Hunderte andere Kernel-Entwickler meistern dieses Entwicklungsmodell seit Jahrzehnten weitgehend reibungslos. Auch mit diesen Entwicklern stritt Overstreet mehrfach im Rahmen der Bcachefs-Entwicklung, etwa, weil er von ihnen betreuten Linux-Kernel-Code ohne adäquate Absprache oder gar hinter deren Rücken veränderte. Schon bei Bcachefs-Vorläufer Bcache hatte es vor über einem Jahrzehnt auch immer mal wieder Zank mit Overstreet gegeben – bis dieser die Betreuung der SSD-Festplatten-Cache-Lösung Bcache aufgab und sich Bcachefs zuwandte, ohne sich einen Nachfolger aufgebaut zu haben.

Die Patch-Beschreibung zum neuen Status bei Bcachefs und einige Stimmen im Umfeld des Kernels deuteten darauf hin, dass Torvalds die jetzt umgesetzte Vorgehensweise in Absprache mit anderen zentralen Entwicklern von Linux getroffen hat. Welche Auswirkungen der Schritt auf die Linux-Welt hat, bleibt abzuwarten. Große Distributoren wie Debian, Fedora oder openSUSE werden weiter das in Linux enthaltene Bcachefs nutzen oder es bei ihren Kerneln komplett deaktivieren. Dass diese Overstreets neueren Bcachefs-Code einbauen, ist eher unwahrscheinlich, denn das verkompliziert die Wartung. Zudem verweigern dann wahrscheinlich noch mehr Kernel-Entwickler von Nutzern der Distributionen eingesandte Bug-Reports, weil solche Modifikationen leicht zu Fehlern führen können. Die sollten mit dem offiziellen Kernel nicht auftreten. Einzelne kleinere Distributionen werden das aber vermutlich nicht scheuen, um gezielt Fans von Bcachefs anzusprechen.


(dmk)



Source link

Weiterlesen

Künstliche Intelligenz

Nikons Luxus-Zoom und getunte Hasselblad – Fotonews der Woche 36/2025


Kauft man für knapp 3000 Euro nun den Body einer Nikon Z6III oder nur das neue Z 24-70mm f/2.8 S II? Das ist eine Frage, die man sich vielleicht stellen könnte, falls jetzt vom Urlaubsgeld noch etwas übrig geblieben ist. Zwar sind teure Objektive vom Originalhersteller einer Kamera etwas Selbstverständliches, aber Nikon hat hier – einmal mehr – das Preisgefüge ziemlich durcheinandergebracht.

Ein lichtstarkes 24-70-Millimeter-Zoom gehört für viele Fotografen zum absoluten Standardwerkzeug, Porträt, Landschaft, etwas Available Light – damit geht schon ziemlich viel. Dafür nun 2900 Euro zu verlangen, ist vielleicht angesichts der Verbesserungen wie Gewichtsreduktion, höherem Fokus-Tempo und internem Zoom noch zu rechtfertigen. Es gibt schlicht kein anderes Objektiv mit dieser Ausstattung, die Details zeigt unsere ausführliche Meldung. Aber: Im Vergleich zu dem, was der Markt rein für die gleichen optischen Daten verlangt, ist das ziemlich überzogen.

Die für DSLRs entwickelten, und damit größeren und schwereren 28-70mm-f/2.8-Zooms von Sigma und Tamron kosten heute als Neuware nur ein Drittel von Nikons neuem Objektiv. Größter Nachteil: Der Autofokus hält mit den rasanten Bildraten moderner Spiegelloser nicht mit. Und mit Fremdobjektiven, Vorsicht, Kalauer, fremdelt Nikon ja in letzter Zeit generell.

Ein bisschen Hoffnung gibt es allerdings auf vernünftigere Preise, denn der Vorgänger des nun aktualisierten Z-Nikkors kam vor sechs Jahren mit einer UVP von 2500 Euro auf den Markt und ist immer wieder auch unter 1800 Euro zu haben. Seitdem haben aber erst eine Pandemie und dann ein Zollchaos die Welt heimgesucht, sodass sich solche Entwicklungen wohl nicht direkt auf den heutigen Markt übertragen lassen.

In einem anderen Punkt lässt sich Nikon zuverlässig nicht lumpen: Große Firmwareupdates mit zahlreichen neuen Funktionen gibt es seit einigen Jahren nicht nur für die Topmodelle. Die, wohlwollend betrachtet, gehobene Mittelklasse in Form der Z6III wird nach gut einem Jahr fast schon runderneuert. Die Firmware 2.0 bringt rund 70 neue oder verbesserte Funktionen mit, wie Nikon DPreview sagte. Natürlich würde da ein kompletter „feature count“ den Rahmen dieser Kolumne sprengen, daher seien hier einige Highlights erwähnt. Die vollständige Liste findet sich, samt den manchmal kruden deutschen Bezeichnungen, unter dem vorangegangenen Link.

Das mit Z8 und Z9 eingeführte „Auto Capture“, zu deutsch: „Automatisch erfassen“ ist eine kräftig aufgebohrte Fokusfalle. Die Kamera kann unter anderem mit einstellbarer Empfindlichkeit auslösen, wenn ein Objekt in den Bildbereich gerät. Oder sich dessen Abstand ändert. Was aber – siehe Fremdobjektive – nur mit Nikkor-Z-Optiken zuverlässig funktionieren soll. Auch ein zuvor eingestelltes Motiv, das der KI-Autofokus bemerkt, kann zur Aufnahme führen. Ein Beispiel: Soll an einer Rennstrecke nur der Mensch auf einem Sportgerät fotografiert werden, und nicht etwa ein zufällig vorbeikommendes Tier, so dürfte die Nikon nur den Sportler aufnehmen. Eigene Motive, etwa anhand von Fotos, erkennt die Funktion nicht. Da sich aber die Richtung einer Bewegung und das Motiv kombinieren lassen, ist das für Sport nicht schlimm: Mensch kommmt von rechts, durch diese Fokusfelder, löse dann aus. Wenn ein Vogel vorbeifliegt, wird damit kein Bild gemacht. Weil die Z6III immer schon als Hybride zum Fotografieren und Filmen konzipiert wurde, klappt „Automatisch erfassen“ auch bei Videoaufnahme.

Die herrenlose Nikon an der Rennstrecke ist auch ein Beispiel für „NX Field“. Das ist Nikons nur für iOS-Geräte erhältliche App, mit der sich mehrere Kameras fernbedienen lassen. Am ehesten empfiehlt sich dafür ein großes iPad, mit dem sich auch Vorschaubilder vieler Nikons im Blick behalten lassen. NX Field ist nur für die Z9 kostenlos, für eine Lizenz für andere Kameras muss man sich an den Nikon Professional Service wenden. Die Z6III beherrscht NX Field schon länger, und wird nun mit Firmware 2.0 besser unterstützt – unter anderem durch einen ferngesteuerten Weißabgleich. Kostenlos ist dagegen, und eigentlich überfällig, dass die Kamera nun auch ohne weitere Software als Webcam per USB funktionieren soll.

Auch eher eine Funktion für Berufsfotografen ist das digitale Echtheitssiegel nach C2PA, hier „Nikon Authenticity Service“ genannt. Um das der Z6III beizubringen, muss man die Nikon Cloud benutzen, denn mit dieser werden die Daten von veröffentlichten Fotos abgeglichen. Funktionen, die nicht nur Profis nützen: Höhere Auflösungen als die 24,5 Megapixel des Sensors lassen sich per Pixel Shift nun auch aus Belichtungs- und Fokus-Reihen zusammensetzen. Dies weiterhin aber nur am Rechner, automatisch montiert die Kamera die Bilder nicht aneinander.

Wer Kosten und Gewicht nicht scheut, kann besonders hochauflösende Bilder schon seit Jahrzehnten mit Kameras vor allem einer Marke aufnehmen: Hasselblad. Die stellten vor drei Jahren die X2D 100C mit 100-Megapixel-Sensor im Mittelformat vor. Diese Kamera brachte aber nicht den damals schon zum Standard gewordenen KI-Autofokus mit. Den bot aber ein Jahr später der Konkurrent Fujifilm mit der GFX 100 II, sodass Hasselblad dringend nachziehen musste. Das ist nun in Form der X2D II 100C geschehen. Einer Kollegin in der Redaktion ist aufgefallen, dass im neuen Namen eine Anspielung auf einen kleinen Droiden steckt, wenn man ihn Englisch buchstabiert: „X-Two-D-Two“.

Scheint, als wolle Hasselblad, einst die Marke für absolute Spezialaufgaben, hier eine Universalkamera schaffen. Dafür spricht nicht nur der nun vorhandene KI-Autofokus, alias Motiverkennung. Auch der Sensor soll bei gleicher Auflösung modernisiert worden sein: 16 Bit Farbtiefe und HDR sind eine Ansage, der Rest der Specs findet sich in unserer Meldung zur X2D II 100C. Der versprochene hohe Dynamikumfang verdient in dieser Fotonews eine etwas nähere Betrachtung.

Wenn man Hasselblads zahlreichen Beispielfotos – auf geeignetem Display – glauben kann, so sind die vielen Farben und Helligkeitsstufen und der Detailreichtum schlicht fantastisch. Wie viel Nachbearbeitung darin steckt, lässt sich anhand der Bilder nicht beurteilen, denn bei vielen fehlt ein Teil der Metadaten, zudem liegen sie nur als JPEG vor, immerhin mit für alle Kanäle kombiniert 24 Bit Farbtiefe. Manche sind auch etwas beschnitten, zeigen also nicht alle 100 Megapixel, dennoch: auch, weil da ziemlich gute Fotografen und Models am Werk waren, ist das beeindruckend. Daher gleich vorweg: Hasselblads Galerie ist unsere Empfehlung für einen Long Click zum Wochenende.

Anders als Nikon mit seinem neuen Standard-Zoom hat Hasselblad übrigens die Preisschraube in die andere Richtung gedreht: Die X2D II 100C kommt mit einer Preisempfehlung von 7200 Euro auf den Markt, der Vorgänger X2D 100C erschien vor drei Jahren für ganze 8700 Euro – da hat sich wohl die Konkurrenz von Fujifilm deutlich ausgewirkt. Allerdings brauchen alle Mittelformatkameras auch geeignete Objektive, für das ebenfalls neue XCD 2,8–4/35–100E von Hasselblad sind 4800 Euro fällig. HDR und extreme Auflösung sind also schon für den Einstieg doch eher eine Sache für Spezialisten.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Beliebt