Künstliche Intelligenz
APIs in KI integrieren: „Maschinen benötigen eine klare API-Beschreibung“
Erik Wilde hat jahrelange Erfahrung im API-Bereich. Als Botschafter bei der OpenAPI-Initiative setzt er sich für den Einsatz offener Standards und Best Practices in API-Design und -Management ein. Auf YouTube betreibt er den Channel Getting APIs to Work, der sich an IT-Experten, Entwicklerinnen und Produktmanager richtet. Außerdem hat Wilde zahlreiche Artikel und Bücher geschrieben, und er spricht regelmäßig auf Fachkonferenzen.
Weiterlesen nach der Anzeige
iX: Schnittstellen sind ein absolutes Grundkonzept der Softwarearchitektur; man entwirft, implementiert und überarbeitet sie ständig für die Anwendungsprogrammierung. Wann beginnt man, eine Schnittstelle als API zu bezeichnen? Die Semantik dieses Wortes geht über die reine Abkürzung hinaus.
Erik Wilde: Man bezeichnet eine Schnittstelle als API, sobald sie über ihren unmittelbaren Implementierungskontext hinaus von anderen genutzt werden soll. Eine Schnittstelle ist nur eine technische Grenze, eine API hingegen ein veröffentlichter Vertrag. Das bedeutet, dass sie absichtlich offengelegt, dokumentiert und stabil genug ist, damit andere – innerhalb oder außerhalb des Entwicklerteams oder Systems – sich darauf verlassen können. Es ist vor allem der Aspekt der Absicht und des breiteren Publikums, der eine API auszeichnet.
iX: Sind die Ansätze, die eine API für Menschen nützlich und zugänglich machen, nicht dieselben wie diejenigen, die sie für KI, also LLM-basierte Automatisierung, zugänglich machen?
Wilde: Sowohl Menschen als auch Maschinen benötigen zugängliche APIs, jedoch auf unterschiedliche Weise. Für Menschen funktioniert die Dokumentation am besten, wenn APIs einheitliche Muster aufweisen, da das nicht nur das Verständnis erleichtert, sondern auch die Wiederverwendung von Tools und Verfahren für verschiedene APIs ermöglicht. Menschen können auch einen breiteren Kontext heranziehen, ohne verwirrt zu werden. Maschinen hingegen benötigen eine klare, in sich geschlossene Beschreibung jeder API. Selbst wenn die Kontextfenster größer werden, ist mehr Kontext nicht immer hilfreich – KI hat oft Schwierigkeiten, größere Kontexte effektiv zu nutzen.
Menschen schätzen APIs, die offen, wiederverwendbar und flexibel anpassbar sind, während Maschinen mehr von einer geführten Abstraktionsebene profitieren, die den Schwerpunkt darauf legt, was erreicht werden kann und wie dies zu tun ist, anstatt jede mögliche Operation offenzulegen.
Weiterlesen nach der Anzeige
iX: Sie haben sich in der Vergangenheit in Ihrem YouTube-Channel „Getting APIs to Work“ mit dem ökologischen Fußabdruck von APIs befasst. Wenn man über Softwareeffizienz und CO2-Bewusstsein nachdenkt, passt das dann gut zu dem, was derzeit als Agentic AI beworben wird?
Wilde: Der ökologische Fußabdruck von Agentic AI ist erheblich, da die explorative Nutzung durch Agenten oft zu mehr Orchestrierung, mehr Rechenzyklen und einem höheren Energieverbrauch führt. Das scheint im Widerspruch zu den Bestrebungen nach Effizienz und CO2-Bewusstsein bei Software und APIs zu stehen.
Der Weg nach vorne besteht darin, sie als komplementär zu betrachten: Agenten können kreative Lösungen erforschen und neue Vorgehensweisen aufdecken, aber sobald ein vielversprechender Ansatz gefunden ist, sollte er in einen deterministischen, wiederholbaren Workflow kodifiziert werden, der energieeffizient, skalierbar und überprüfbar ist. Das bringt die Vorteile der Kreativität der KI mit der Notwendigkeit eines nachhaltigen und konformen Betriebs in Einklang, wobei so viel KI wie nötig, aber so wenig wie möglich eingesetzt wird.
Durch das Entwickeln von Architekturen, die einen reibungslosen und bewussten Übergang vom Experimentieren zur effizienten Ausführung ermöglichen, können wir sowohl die Unsicherheit hinsichtlich der Unvorhersehbarkeit der KI als auch die Notwendigkeit angehen, ihren erheblichen Energieverbrauch zu kontrollieren.
iX: In welcher Beziehung steht MCP zu OpenAPI? Verfolgen beide nicht dasselbe Ziel: die Standardisierung der Beschreibung von APIs und deren einfache Zugänglichkeit? Oder ähnelt es eher JSON:API, also der Standardisierung der APIs selbst?
Wilde: Bei MCP, OpenAPI und JSON:API geht es darum, Funktionen verfügbar zu machen, aber sie richten sich an unterschiedliche Nutzer. MCP wurde speziell für LLMs entwickelt und stellt ihnen Tools und Ressourcen zur Verfügung, die auf ihre Arbeitsweise zugeschnitten sind. OpenAPI hingegen richtet sich an Entwickler, die HTTP-APIs nutzen möchten, und konzentriert sich hauptsächlich darauf, Endpunkte zu strukturieren und diesen Schemata hinzuzufügen.
JSON:API fügt eine weitere Ebene hinzu, indem es standardisiert, wie die Schemata strukturiert sind und welche gemeinsamen Konzepte eine API offenlegen sollte, sodass Entwickler von bereits bekannten Konventionen profitieren und Tools wiederverwenden können, die diese unterstützen.
Es ist zwar möglich, MCP-Server automatisch aus OpenAPI zu generieren, aber das führt in der Regel nicht zu den besten Ergebnissen: Bei komplexeren APIs reicht eine Liste von Endpunkten nicht aus, da LLMs das implizite Verständnis fehlt, das Menschen beim Schreiben von Code mitbringen. Das ist der grundlegende Unterschied: OpenAPI und JSON:API gehen davon aus, dass ein menschlicher Developer die Lücken füllen kann, während MCP eine ausreichend aufgabenorientierte Struktur bereitstellen muss, damit ein LLM ohne diese menschliche Intelligenz erfolgreich sein kann.
iX: Machen LLMs bestimmte Ansätze zur Automatisierung überflüssig? Oder sind sie nur ein weiterer Anwendungsfall? Aufgrund der Nicht-Determiniertheit können sie eine zuverlässige Systemintegration vermutlich nicht wirklich ersetzen.
Wilde: Bei der Automatisierung geht es in der Regel um Zuverlässigkeit, Wiederholbarkeit und Effizienz, was LLMs nicht bieten. Sie sind nicht deterministisch, nicht zuverlässig reproduzierbar und nicht besonders effizient. Was sie jedoch bieten, ist eine neue Art von Kreativität: die Fähigkeit, Lücken zu schließen, Lösungen auszuprobieren und chaotischere Teile der Automatisierung zu bewältigen, die mit traditionellen Ansätzen nicht möglich sind.
Am besten betrachtet man sie als ein weiteres Werkzeug im Werkzeugkasten – eines, das wir selektiv einsetzen können, zum Erkunden oder für bestimmte Teile eines Prozesses, aber nicht für die Teile, die strenge Garantien erfordern. Architekturen, die LLM-gesteuerte Erkundung mit kodifizierten, deterministischen Workflows kombinieren, können das Beste aus beiden Welten vereinen: KI, wo Kreativität einen Mehrwert schafft, und traditionelle Automatisierung, wo Zuverlässigkeit unerlässlich ist.
Das Interview führte Richard Wallintin von WPS – Workplace Solutions.
(rme)
Künstliche Intelligenz
Nach „Stop Killing Games“: Ubisofts „The Crew 2“ kann offline gespielt werden
Ubisoft hat einen Offline-Modus für das Rennspiel-MMO „The Crew 2“ veröffentlicht. Spieler können jederzeit und wiederholt ihren Online-Spielstand exportieren, um ihn offline weiterzuspielen. Der Haken: Offline-Fortschritt wird nicht in den Online-Spielstand zurück synchronisiert. Zudem fehlen Multiplayer-Spielmodi und von Nutzern erstellte Inhalte.
Weiterlesen nach der Anzeige
In der Praxis dürften die meisten Nutzer also erst einmal online weiterspielen. Der Offline-Modus dürfte als Versicherung gedacht sein: Wenn die Server von „The Crew 2“ irgendwann abgeschaltet werden, können Spieler ihren Spielstand offline sichern und weiterspielen. Damit entgeht „The Crew 2“ dem Schicksal, das seinen Vorgänger so kontrovers machte: Nachdem Ubisoft die Server am 1. April 2024 abgeschaltet hatte, wurde der Titel komplett unspielbar. Einen Offline-Modus für Teil 1 gab und gibt es nicht.
Stop Killing Videogames
Das trat mehrere Debatten los. Unter anderem kritisierte die Piratenpartei die Abschaltung. Die Praxis könnte gegen EU-Recht verstoßen, meinte der Europaabgeordnete der Piratenpartei, Patrick Breyer: „Die Abschaltung von ‚The Crew 1‘ durch Ubisoft ist ein alarmierendes Beispiel dafür, wie die Interessen der Spieler ignoriert werden. Es ist inakzeptabel und wahrscheinlich auch illegal, dass Unternehmen beliebte Spiele erst gewinnbringend verkaufen und dann kurzfristig lahmlegen“, schrieb Breyer.
Vor allem trat Ubisofts Vorgehen bei „The Crew“ die Initiative „Stop Killing Games“ los, die bei der EU als „Stop Destroying Videogames“ firmiert. Die Bürgerinitiative hat im Sommer die nötigen Stimmen erreicht – sollten ausreichend der 1,4 Millionen gesammelten Stimmen echt sein, muss sich die EU-Kommission mit der Thematik befassen. Ziel ist es, Publisher zum Weiterbetrieb von alten Videospielen zu zwingen. Die Branche befürchtet dadurch steigende Kosten.
Dass „The Crew 2“ einen Offline-Modus bekommt, hatte Ubisoft bereits im vergangenen Herbst versprochen – als direkte Reaktion auf die Kritik an „The Crew“.
(dahe)
Künstliche Intelligenz
MacBook mit OLED und Touch: Neue Details
Apple arbeitet einem Bericht zufolge weiter an einem ersten MacBook mit zusätzlicher Touchbedienung. Das meldet der Bloomberg-Autor Mark Gurman in seinem neuesten Artikel. Das Gerät soll demnach ein MacBook Pro mit OLED-Bildschirm sein, das „Ende 2026 oder Anfang 2027“ auf den Markt kommt. Die Maschine mit dem internen Codenamen K114 und K116 kommt demnach mit dem – noch unbekannten – M6-Chip und soll einen „dünneren und leichteren Gehäuserahmen“ haben.
Weiterlesen nach der Anzeige
Teurer, mit Touch und OLED
Stimmt der Bericht, würde Apple bereits mit seinem lange erwarteten ersten OLED-Mac auch erstmals einen Touchscreen ausliefern. Dies war bei Apple lange umstritten, wo man Macs von iPads trennt, zumal macOS nach wie vor nicht für die Bedienung per Finger angepasst ist. Apples 2011 verstorbener Mitbegründer Steve Jobs galt als Gegner von Touchscreen-Notebooks. Tastatur und Trackpad will Apple allerdings nicht weglassen: Es sollen beide Steuerungsvarianten, also Touch-Display und traditionell, erhalten bleiben.
Bislang gibt es nur das iPad Pro in seinen Varianten mit M4 und M5, in dem Apple größere OLED-Displays mit 11 und 13 Zoll einbaut. Dass diese in den Mac kommen, gilt seit Jahren als ausgemacht, doch wurde dies, so zumindest die Gerüchteküche, gleich mehrfach verschoben. Gurman geht davon aus, dass die neuen Geräte teurer werden als bisherige MacBook-Pro-Modelle, die bei 2000 US-Dollar (14 Zoll) respektive 2500 Dollar (16 Zoll, Euro-Preise jeweils teurer) beginnen.
Neues von den M5-Macs
Ob auch weitere Macs Touchscreens erhalten, ist noch nicht gesagt. Apple will offenbar beim MacBook Pro zunächst experimentieren. Dort war auch schon ein OLED-Touch-Streifen, die TouchBar, eingeführt und wieder gestrichen worden. Noch nicht kommen soll hingegen eine Face-ID-Gesichtserkennung im Mac. Diese benötige „noch Jahre“, schreibt Gurman. Allerdings soll das MacBook Pro die störende Webcam-Einkerbung (Notch) verlieren, stattdessen sei ein „Hole-Punch“-Design vorgesehen, wie man es von der aktuellen Dynamic Island im iPhone kennt.
Gurman hat weiterhin vernommen, dass Apple für das Jahr 2026 nicht nur an M5-Pro- und M5-Max-Varianten des gerade veröffentlichten MacBook Pro M5 arbeitet, sondern auch an MacBook Air M5, Mac Studio M5 und Mac mini M5. Das Design soll sich hingegen wenig verändern. Das neue Air trägt die Codenamen J813 und J815. Gurman spricht außerdem von zwei neuen Bildschirmen mit den Codenamen J427 und J527 – ob es zwei neue Studio-Displays oder ein neues Pro Display XDR sein werden, bleibt unklar.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
Kein neues Betriebssystem: FSFs LibrePhone-Projekt will Android befreien
Die Free Software Foundation hatte im Zuge ihres 40. Geburtstags das LibrePhone-Projekt angekündigt. Bislang war über die neue Initiative bekannt, dass mit dieser eine Alternative zu den dominierenden Mobile-Plattformen von Apple und Google basierend auf freier Software erschaffen werden soll. Nun hat die FSF weitere Details genannt.
Weiterlesen nach der Anzeige
Weder Smartphone-OS, noch Hardware
Wie die FSF in einem Blogbeitrag und einer FAQ-Seite erläutert, verfolgte die Foundation nicht das Ziel, ein freies Betriebssystem für Smartphones, geschweige denn eigene Hardware zu entwickeln. Die FSF sehe keine Notwendigkeit darin, an einem eigenen OS zu arbeiten, da es bereits viele Projekte gebe, die sich mit Mobiltelefonen befassen, von denen viele weitgehend freie Software seien.
Stattdessen möchte die FSF mit der Initiative auf den bestehenden Projekten aufbauen und „ihren derzeitigen Freiheitsgrad verbessern“. „Obwohl Android viele proprietäre Bibliotheken und andere Dateien enthält, konzentriert sich dieses Projekt auf Binär-Blobs“. Bei Binär-Blobs handelt es sich um kompilierte, proprietäre Software-Komponenten ohne verfügbaren Quellcode, die etwa für Hardware-Funktionen wie WLAN, Bluetooth oder Grafik zuständig sind.
Raus mit proprietärer Software
Damit will LibrePhone darauf abzielen, „die letzten Lücken zwischen bestehenden Distributionen des Android-Betriebssystems und Softwarefreiheit zu schließen“. Dafür habe die FSF den Entwickler Rob Savoye (DejaGNU, Gnash, OpenStreetMap und mehr) engagiert, um das technische Projekt zu leiten. Dies hatte die FSF bereits im Zuge der Ankündigung publik gemacht. Unklar war allerdings, woraus seine Arbeit bestehen werde. Im Blogbeitrag heißt es nun, dass er „den Stand der Geräte-Firmware und Binär-Blobs in anderen Projekten zur Freiheit von Mobiltelefonen“ untersuche. Dabei lege er seinen Schwerpunkt auf die „Arbeit an freier Software, die vom nicht vollständig freien Mobiltelefon-Betriebssystem LineageOS geleistet wird“.
Lesen Sie auch
Finanziert wird die Initiative zunächst durch eine Spende von John Gilmore, Vorstandsmitglied der FSF, der erklärte: „Ich nutze seit Jahren gerne ein Mobiltelefon mit LineageOS, MicroG und F-Droid, wodurch die Spyware und Kontrolle, die Google in Standard-Android-Smartphones einbaut, eliminiert werden.“ Er stellte jedoch fest, dass die LineageOS-Distribution wichtige proprietäre Binärmodule enthält, die aus der Firmware von Smartphones kopiert wurden. „Anstatt diese traurige Situation zu akzeptieren, suchte ich nach Mitstreitern, um diese proprietären Module per Reverse Engineering zurückzuentwickeln und durch vollständig freie Software zu ersetzen, zumindest für ein modernes Telefon.“
Weiterlesen nach der Anzeige
Auf der FAQ-Seite erklärt die FSF den ersten groben Zeitplan: In den ersten etwa sechs Monaten wolle man sich auf die Recherche und Definition des Projekts konzentrieren. Zudem sollen gängige, nicht-freie Blobs in aktuellen (größtenteils) freien Software-Betriebssystemen analysiert werden und anhand dieses Wissens – und anderen Faktoren – nutzen, „um das beste Gerät für die Entwicklung zu identifizieren und zu dokumentieren, wie diese proprietären Blobs vom Linux-Kernel verwendet werden, um zu verstehen, was erforderlich wäre, um sie mit Clean-Room-Techniken (bei denen ein Team die Software analysiert und ein anderes sie neu implementiert, ohne direkten Kontakt zum Original-Code) legal zurückzuentwickeln“, um Urheberrechtsverletzungen zu vermeiden. Gegenüber The Register konkretisierte Savoye, dass er sich zunächst auf Blobs für Radio-Funktionen (Mobilfunk, Wi-Fi, Bluetooth) konzentrieren wird, danach auf GPU-Funktionen und den Touchscreen.
Zudem stellt die FSF weiter klar, dass die Arbeit an diesem Projekt kein Sprint, sondern ein Marathon sei und mehrere Jahre in Anspruch nehmen werde. Für die Fortführung des Projekts seien Spenden notwendig, um die Entwicklung zu finanzieren. Ferner suche man nach Freiwilligen für die Mitarbeit. Hauptentwickler Rob Savoye blickt optimistisch auf das Projekt:“Die Entwicklung einer vollständig freien Software für ein modernes kommerzielles Telefon wird weder schnell noch einfach oder billig sein, aber unser Projekt profitiert davon, dass wir auf den Schultern von Giganten stehen, die den größten Teil der Arbeit bereits geleistet haben.“
(afl)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Monaten
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 3 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows