Connect with us

Künstliche Intelligenz

APIs in KI integrieren: „Maschinen benötigen eine klare API-Beschreibung“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.


Erik Wilde

Erik Wilde

Erik Wilde hat jahrelange Erfahrung im API-Bereich. Als Botschafter bei der OpenAPI-Initiative setzt er sich für den Einsatz offener Standards und Best Practices in API-Design und -Management ein. Auf YouTube betreibt er den Channel Getting APIs to Work, der sich an IT-Experten, Entwicklerinnen und Produktmanager richtet. Außerdem hat Wilde zahlreiche Artikel und Bücher geschrieben, und er spricht regelmäßig auf Fachkonferenzen.

Weiterlesen nach der Anzeige

iX: Schnittstellen sind ein absolutes Grundkonzept der Softwarearchitektur; man entwirft, implementiert und überarbeitet sie ständig für die Anwendungsprogrammierung. Wann beginnt man, eine Schnittstelle als API zu bezeichnen? Die Semantik dieses Wortes geht über die reine Abkürzung hinaus.

Erik Wilde: Man bezeichnet eine Schnittstelle als API, sobald sie über ihren unmittelbaren Implementierungskontext hinaus von anderen genutzt werden soll. Eine Schnittstelle ist nur eine technische Grenze, eine API hingegen ein veröffentlichter Vertrag. Das bedeutet, dass sie absichtlich offengelegt, dokumentiert und stabil genug ist, damit andere – innerhalb oder außerhalb des Entwicklerteams oder Systems – sich darauf verlassen können. Es ist vor allem der Aspekt der Absicht und des breiteren Publikums, der eine API auszeichnet.

iX: Sind die Ansätze, die eine API für Menschen nützlich und zugänglich machen, nicht dieselben wie diejenigen, die sie für KI, also LLM-basierte Automatisierung, zugänglich machen?

Wilde: Sowohl Menschen als auch Maschinen benötigen zugängliche APIs, jedoch auf unterschiedliche Weise. Für Menschen funktioniert die Dokumentation am besten, wenn APIs einheitliche Muster aufweisen, da das nicht nur das Verständnis erleichtert, sondern auch die Wiederverwendung von Tools und Verfahren für verschiedene APIs ermöglicht. Menschen können auch einen breiteren Kontext heranziehen, ohne verwirrt zu werden. Maschinen hingegen benötigen eine klare, in sich geschlossene Beschreibung jeder API. Selbst wenn die Kontextfenster größer werden, ist mehr Kontext nicht immer hilfreich – KI hat oft Schwierigkeiten, größere Kontexte effektiv zu nutzen.

Menschen schätzen APIs, die offen, wiederverwendbar und flexibel anpassbar sind, während Maschinen mehr von einer geführten Abstraktionsebene profitieren, die den Schwerpunkt darauf legt, was erreicht werden kann und wie dies zu tun ist, anstatt jede mögliche Operation offenzulegen.

Weiterlesen nach der Anzeige

iX: Sie haben sich in der Vergangenheit in Ihrem YouTube-Channel „Getting APIs to Work“ mit dem ökologischen Fußabdruck von APIs befasst. Wenn man über Softwareeffizienz und CO2-Bewusstsein nachdenkt, passt das dann gut zu dem, was derzeit als Agentic AI beworben wird?

Wilde: Der ökologische Fußabdruck von Agentic AI ist erheblich, da die explorative Nutzung durch Agenten oft zu mehr Orchestrierung, mehr Rechenzyklen und einem höheren Energieverbrauch führt. Das scheint im Widerspruch zu den Bestrebungen nach Effizienz und CO2-Bewusstsein bei Software und APIs zu stehen.

Der Weg nach vorne besteht darin, sie als komplementär zu betrachten: Agenten können kreative Lösungen erforschen und neue Vorgehensweisen aufdecken, aber sobald ein vielversprechender Ansatz gefunden ist, sollte er in einen deterministischen, wiederholbaren Workflow kodifiziert werden, der energieeffizient, skalierbar und überprüfbar ist. Das bringt die Vorteile der Kreativität der KI mit der Notwendigkeit eines nachhaltigen und konformen Betriebs in Einklang, wobei so viel KI wie nötig, aber so wenig wie möglich eingesetzt wird.

Durch das Entwickeln von Architekturen, die einen reibungslosen und bewussten Übergang vom Experimentieren zur effizienten Ausführung ermöglichen, können wir sowohl die Unsicherheit hinsichtlich der Unvorhersehbarkeit der KI als auch die Notwendigkeit angehen, ihren erheblichen Energieverbrauch zu kontrollieren.

iX: In welcher Beziehung steht MCP zu OpenAPI? Verfolgen beide nicht dasselbe Ziel: die Standardisierung der Beschreibung von APIs und deren einfache Zugänglichkeit? Oder ähnelt es eher JSON:API, also der Standardisierung der APIs selbst?

Wilde: Bei MCP, OpenAPI und JSON:API geht es darum, Funktionen verfügbar zu machen, aber sie richten sich an unterschiedliche Nutzer. MCP wurde speziell für LLMs entwickelt und stellt ihnen Tools und Ressourcen zur Verfügung, die auf ihre Arbeitsweise zugeschnitten sind. OpenAPI hingegen richtet sich an Entwickler, die HTTP-APIs nutzen möchten, und konzentriert sich hauptsächlich darauf, Endpunkte zu strukturieren und diesen Schemata hinzuzufügen.

JSON:API fügt eine weitere Ebene hinzu, indem es standardisiert, wie die Schemata strukturiert sind und welche gemeinsamen Konzepte eine API offenlegen sollte, sodass Entwickler von bereits bekannten Konventionen profitieren und Tools wiederverwenden können, die diese unterstützen.

Es ist zwar möglich, MCP-Server automatisch aus OpenAPI zu generieren, aber das führt in der Regel nicht zu den besten Ergebnissen: Bei komplexeren APIs reicht eine Liste von Endpunkten nicht aus, da LLMs das implizite Verständnis fehlt, das Menschen beim Schreiben von Code mitbringen. Das ist der grundlegende Unterschied: OpenAPI und JSON:API gehen davon aus, dass ein menschlicher Developer die Lücken füllen kann, während MCP eine ausreichend aufgabenorientierte Struktur bereitstellen muss, damit ein LLM ohne diese menschliche Intelligenz erfolgreich sein kann.

iX: Machen LLMs bestimmte Ansätze zur Automatisierung überflüssig? Oder sind sie nur ein weiterer Anwendungsfall? Aufgrund der Nicht-Determiniertheit können sie eine zuverlässige Systemintegration vermutlich nicht wirklich ersetzen.

Wilde: Bei der Automatisierung geht es in der Regel um Zuverlässigkeit, Wiederholbarkeit und Effizienz, was LLMs nicht bieten. Sie sind nicht deterministisch, nicht zuverlässig reproduzierbar und nicht besonders effizient. Was sie jedoch bieten, ist eine neue Art von Kreativität: die Fähigkeit, Lücken zu schließen, Lösungen auszuprobieren und chaotischere Teile der Automatisierung zu bewältigen, die mit traditionellen Ansätzen nicht möglich sind.

Am besten betrachtet man sie als ein weiteres Werkzeug im Werkzeugkasten – eines, das wir selektiv einsetzen können, zum Erkunden oder für bestimmte Teile eines Prozesses, aber nicht für die Teile, die strenge Garantien erfordern. Architekturen, die LLM-gesteuerte Erkundung mit kodifizierten, deterministischen Workflows kombinieren, können das Beste aus beiden Welten vereinen: KI, wo Kreativität einen Mehrwert schafft, und traditionelle Automatisierung, wo Zuverlässigkeit unerlässlich ist.

Das Interview führte Richard Wallintin von WPS – Workplace Solutions.


(rme)



Source link

Künstliche Intelligenz

Rybbit 2.0: Google-Analytics-Alternative mit Kartenansicht


Die Open-Source-Webanalyse-Software Rybbit hat mit Version 2.0 das bislang größte Update bekommen. Die Entwickler haben unter anderem die Kartenansicht grundlegend überarbeitet und an zahlreichen Verbesserungen bei der Benutzeridentifikation und Konfiguration gearbeitet.

Weiterlesen nach der Anzeige

Rybbit positioniert sich als datenschutzfreundliche Alternative zu Google Analytics und setzt auf cookiefreie Analysen sowie Self-Hosting-Optionen. Die Software richtet sich insbesondere an Unternehmen, die DSGVO-konform Webanalysen durchführen möchten, ohne auf externe Cloud-Dienste angewiesen zu sein.

Das Hauptfeature der neuen Version ist die komplett überarbeitete Globe-Seite, die die bisherigen Map- und Realtime-Seiten ersetzt. Die Entwickler haben dabei von der Leaflet-Bibliothek auf OpenLayers gewechselt. Die neue Kartenansicht bietet drei verschiedene Darstellungsmodi: eine Timeline-Ansicht zum zeitlichen Nachvollziehen von Besuchen, eine Koordinatenansicht für die geografische Darstellung von Sessions und die bewährten Länder- und Regionsebenen.

Einen optionalen 3D-Modus mit Mapbox hat das Projekt zwar entwickelt, liefert ihn aber nicht in der Open-Source-Version aus. Der Grund: Mapbox verlangt für API-Schlüssel eine Kreditkartenregistrierung, auch wenn man innerhalb des kostenlosen Kontingents bleibt. Die 2D-Kartenfunktion steht jedoch allen Nutzern zur Verfügung.

Eine wesentliche Änderung beim Versionssprung auf 2.0 betrifft die Konfigurationsverwaltung. Die Entwickler haben nahezu alle Konfigurationsoptionen vom Tracking-Script auf die serverseitigen Site-Einstellungen verlagert. Konkret bedeutet das: Administratoren müssen das Tracking-Script nicht mehr neu verteilen, wenn sie Einstellungen ändern möchten. Bestehende Nutzer, die bisher Felder im Tracking-Script gesetzt haben, müssen lediglich die entsprechenden Schalter in den Site-Einstellungen aktivieren.

Weiterlesen nach der Anzeige

Die Analysefunktionen hat Rybbit ebenfalls erweitert. Die Journey-Seite hat das Projekt überarbeitet, sie bietet nun eine verbesserte Benutzeroberfläche mit Step-Path-Filtern sowie intuitiveren Hover-Interaktionen für Knoten und Verbindungen. Goals und Funnels lassen sich nun klonen und per Suchfilter durchsuchen. Die Benutzeridentifikation zeigt statt der rohen ID ab sofort zufällig generierte Namen an, wobei die eigentliche ID weiterhin verfügbar bleibt.

Ein kontroverses neues Feature ist die optionale IP-Adressen-Erfassung. Sie ist allerdings standardmäßig deaktiviert, da IP-Adressen als datenschutzrechtlich sensibel gelten. Gedacht ist die Funktion für Debugging-Zwecke oder zur Bot-Erkennung. Zudem wurden die Filtermöglichkeiten erweitert: Der lange fehlerhafte Event-Name-Filter funktioniert jetzt korrekt, ferner stehen auf mehreren Seiten zusätzliche Filteroptionen zur Verfügung, darunter ein Hostname-Filter.

Rybbit reiht sich in eine wachsende Zahl von Open-Source-Alternativen zu Google Analytics ein. Die Software bietet neben den üblichen Webanalyse-Funktionen auch erweiterte Produktanalysen wie Session-Replays und Benutzer-Retention. Anbieter von Webseiten können Rybbit selbst betreiben oder als Cloud-SaaS beziehen. Version 2.0 steht ab sofort auf GitHub zur Verfügung.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

#TGIQF: Das (neue) Quiz rund ums Booten


Seit nunmehr über acht Jahren leitet das TGIQF-Quiz bei heise online mit einer Handvoll Nerdfragen das Wochenende ein. Volker Weber kündigte am 25. September 2017 in „init – der Wochenausblick“ ein neues Quiz auf heise online an: „Sofern uns die CMS-Götter hold sind, starten wir am Freitag die neue Rubrik #TGIQF: „Thank God it’s Quiz Friday“. Lasst Euch überraschen.“ Das am Freitag der gleichen Woche erschienene erste Quiz handelte von Abkürzungen.

Weiterlesen nach der Anzeige

Mittlerweile sind über 400 weitere Nerd-Quizze dazugekommen. In unzähligen Reaktionen freuten sich unsere Leserinnen und Leser über prima Ergebnisse, zerbrachen sich über nerdige Fragen den Kopf oder ärgerten sich, weil der olle Quizmaster trotz Timer die Frage etwas zu ausführlich formulierte.


#TGIQF: Das heise-online-Quiz

#TGIQF: Das heise-online-Quiz

„Thank God It’s Quiz Friday!“ Jeden Freitag gibts ein neues Quiz aus den Themenbereichen IT, Technik, Entertainment oder Nerd-Wissen:

Tja, was haben wir da angerichtet! Als krankheitsbedingt mal ein Quiz ausfiel, schickte uns ein Leser die verzweifelte Frage, wie denn nun dessen Büroabteilung ins Wochenende starten soll, so ganz ohne heise-Quiz?

Seit einigen Jahren grübeln in der heiseshow zu drei von Moderatorin Anna Bicker vorab gestellten Quizfragen heise online-Chef Dr. Volker Zota sowie Redakteur Malte Kirchner mit, oder andere Gäste – falls jemand von der Stammcrew verhindert ist.

In dieser Woche war deswegen Redakteur Alexander Spier mit an Bord, der zu einer der drei knackigen Fragen sogar mit Nerdwissen aufwarten konnte.

Nun haben wir uns einen kleinen Reboot erlaubt: Das dieswöchige TGIQF-Quiz erscheint in einer neuen Software, die viel mehr Möglichkeiten bietet, um Fragen zu formulieren – Mit dem ersten Quiz ist es noch lange nicht ausgereizt. Der Quizmaster aka Pappenheimer sagt ebenfalls: „Lasst Euch überraschen.“

Passend zum Reboot dreht sich das Quiz dieses Mal rund um das Booten des Rechners, um Bootsoftware, Bootscreens und wenns beim Hochfahren schiefläuft. Aufgepasst: Nun sind durchaus auch mal mehrere Antworten möglich.

Weiterlesen nach der Anzeige

Eine Uhr tickt für Sie nicht. Dafür gibts eine neue Punktzahl: Mit Beantwortung der 10 Fragen können Sie pro Frage 100 Punkte und dank Multiantworten insgesamt maximal satte 1200 Punkte erzielen.

Schreiben Sie gern im Forum, wie Ihnen das neue Quiz gefällt, und teilen Sie auch gern Ihre Ergebnisse mit anderen Usern. Wie immer gilt: bitte mit Spoilern zurückhalten, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern genommen.

Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns bei X auch bekannt als Twitter, Mastodon, auf Facebook oder Instagram. Und schauen Sie auch gern beim Redaktionsbot Botti auf dem Netzwerk, welches einst Twitter hieß, vorbei.

Und falls Sie Ideen für eigene Quiz haben, schreiben Sie einfach eine Mail an den Quizmaster aka Herr der fiesen Fragen.


(mawi)





Source link

Weiterlesen

Künstliche Intelligenz

Sicher im Internet: Wie MullvadVPN, ProtonVPN, NordVPN & Co. helfen | c’t uplink


Kommerzielle VPN-Anbieter wie Bitdefender Premium VPN, ExpressVPN, hide.me VPN, IVPN, Mullvad VPN, NordVPN, Proton VPN, TunnelBear und Windscribe versprechen, ihre Kunden für ein paar Euro im Monat vor quasi allen Bedrohungen des Internets zu schützen. Und nebenher kann man dadrüber anonym surfen, ausländische Streamingdienste nutzen oder, wenn man selbst im Ausland ist, die deutschen Abos und Mediatheken gucken.

Weiterlesen nach der Anzeige


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

Einiges davon stimmt, anderes, naja, nur so halb. Und manches kriegt ihr auch mit einem eigenen VPN gelöst, was ja viele Router direkt anbieten. Im Podcast erläutert c’t-Redakteur Keywan Tonekaboni die Vor- und Nachteile der kommerziellen VPNs.

Die VPNs versprechen Sicherheit, wobei vor allem Sicherheit gegenüber dem Provider – also der Internetanbieter oder der Beitreiber etwa des Hotel-, Café- oder Zug-WLANs – gemeint ist. Sie versprechen Anonymität, was wiederum eher gegenüber der Betreiber der Websites gilt, die man besucht. Sie versprechen, das Geofencing einiger Dienstanbieter zu umgehen – was tatsächlich gut funktioniert. Und sie versprechen, bei Behördenanfragen weniger oder keine Daten herauszurücken, was ein etwas komplizierteres Gebiet ist. Ein Nebeneffekt der VPNs sind zudem Werbeblocker.

Als Alternativen kommen vor allem selbst aufgesetzte VPNs in Frage. Wir erklären, für welche der Anwendungen das hilft und für welche nicht. Und wann und wovor vielleicht weitere Dienste wie TOR oder spezielle DNS-Server sogar besser als ein VPN schützen.

Zu Gast im Studio: Keywan Tonekaboni
Host: Jörg Wirtgen
Produktion: Ralf Taschke

Weiterlesen nach der Anzeige

► Die c’t-Artikel zum Thema (Paywall):
https://www.heise.de/select/ct/2025/22/2523811201254776159
https://www.heise.de/select/ct/2025/22/2525209403380311002
https://www.heise.de/select/ct/2025/22/2523811245173997693

In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(jow)





Source link

Weiterlesen

Beliebt