Connect with us

Entwicklung & Code

Die Produktwerker: KI-Einfluss auf Produktentwicklung durch Context Engineering


In dieser Podcastfolge spricht Tim Klein mit Björn Schotte, Mitgründer und Geschäftsführer von Mayflower, darüber, wie tiefgreifend der Einfluss von KI auf Produktentwicklung bereits ist – und wie sich die Arbeit von Product Ownern, Entwicklerinnen und Organisationen verändert. Björn Schotte bringt dabei nicht nur seine Erfahrungen aus der agilen Softwareentwicklung ein, sondern zeigt, wie KI und Context Engineering die Produktarbeit grundlegend neu definieren.


Product Owner AI Day, Online-Konferenz am 6. November 2025

Product Owner AI Day, Online-Konferenz am 6. November 2025

(Bild: ipopba/stock.adobe.com)

Der Product Owner AI Day von iX und dpunkt.verlag zeigt dir am 6. November 2025, wie du als Product Owner, Product Managerin oder mit deinem Team KI konkret in deine Arbeit integrieren kannst – von der Discovery bis zum Rollout. Tickets sind zum Frühbucherpreis erhältlich.

KI verändert nicht einfach nur Prozesse. Sie verschiebt den Fokus. Wo früher monatelange Diskussionen über Features und Architekturen nötig waren, entstehen heute funktionsfähige Prototypen in wenigen Stunden. Systeme, die sich selbst kontextbezogen steuern, liefern Vorschläge, testen Varianten und verbessern kontinuierlich die Ergebnisse. Damit rückt die eigentliche Frage in den Mittelpunkt: Wie kann man als Produktmensch diese Geschwindigkeit und künstliche Intelligenz sinnvoll nutzen, um echten Mehrwert für Nutzerinnen und Nutzer zu schaffen?

Björn Schotte beschreibt aufgrund seiner Erfahrung, dass AI längst über das reine Vibe Coding hinausgeht. Die Zukunft liegt für ihn im Context Engineering – also darin, KI-Systemen Zugang auch zu relevanten Unternehmensdaten, Prozessen und Werkzeugen zu ermöglichen. So können sie nicht nur auf Zuruf Code generieren, sondern eigenständig sinnvolle Entscheidungen im Entwicklungsprozess treffen. Diese agentischen Systeme lernen aus Daten, messen Auswirkungen und schlagen eigenständig Verbesserungen vor. Damit entsteht ein Kreislauf, in dem Produktentwicklung zu einem lernenden, sich selbst optimierenden Prozess wird.

Für Product Owner bedeutet das eine Veränderung ihrer Rolle. Nicht mehr jede Entscheidung wird im Expertengremium getroffen. Stattdessen verlagert sich Verantwortung dahin, wo Arbeit tatsächlich passiert – in die Teams und an die Schnittstelle zwischen Mensch und Maschine. Die Aufgabe verändert sich: vom Entscheider hin zum Orchestrator. Jemand, der den Rahmen schafft, in dem Menschen, Daten und KI-Systeme gemeinsam wirken können.

Ein Beispiel: Mayflower entwickelt Voice-AI-Lösungen, die in Echtzeit mit Menschen sprechen, lernen und kontextbezogen reagieren. Damit verschwimmen die Grenzen zwischen Development, AI und User Experience. Produktentwicklung wird zu einem Dialog – zwischen Mensch, Maschine und Nutzer. Auch in der Modernisierung von Legacy-Systemen zeigt sich der Einfluss von AI: Software kann heute automatisch dokumentiert, getestet und migriert werden. Entwicklerinnen werden nicht ersetzt, sondern durch AI aufgeladen – schneller, präziser und mit deutlich höherer Testabdeckung.

Doch die größte Herausforderung liegt nicht in der Technologie, sondern in der Organisation. Klassische Hierarchien und lange Entscheidungswege bremsen aus. Wer den Einfluss von AI auf Produktentwicklung wirklich nutzen will, muss Strukturen verändern – Budgetierung, (Entscheidungs-)Verantwortlichkeiten, Zusammenarbeit. Entscheidungen gehören dahin, wo die Arbeit geschieht. Dorthin, wo AI, Daten und Menschen gemeinsam im Produktentwicklungsprozess lernen.

Am Ende dieser Entwicklung steht kein Kontrollverlust, sondern eine neue Form moderner Produktentwicklung. Eine, die Geschwindigkeit mit Lernfähigkeit verbindet. Für Product Owner heißt das: Jetzt ist die Zeit, sich mit KI auseinanderzusetzen – nicht theoretisch, sondern praktisch. Wer versteht, wie AI die Arbeit erleichtert, kann schneller handeln, bessere Produkte bauen und mehr Wirkung erzielen.

Das Gespräch knüpft sehr gut an die vorletzte Podcastfolge mit Ben Sufiani an: „Ist Vibe Coding relevant für die Produktentwicklung?“.

Wer weitere Fragen an Björn Schotte hat oder mit ihm ins Gespräch kommen möchte, erreicht ihn am besten über sein LinkedIn-Profil oder per Mail.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Einfluss von AI auf Produktentwicklung„.


(mai)



Source link

Entwicklung & Code

JetBrains startet neue Open-Source-Förderrunde für PHP-Projekte


Der tschechische Toolhersteller JetBrains baut sein Engagement für die PHP-Community aus und kündigt eine neue Struktur für die Förderung von Open-Source-Projekten an. Neben der kontinuierlichen Weiterentwicklung der Entwicklungsumgebung (IDE) PhpStorm und der Unterstützung der PHP Foundation will das Unternehmen künftig jährlich fünf Open-Source-Projekte oder Maintainer finanziell fördern.

Für das Jahr 2025/2026 hat JetBrains vier Sponsorenplätze bereits vergeben:

  • Saif Eddin Gmati entwickelt Mago, einen neuen in Rust geschriebenen Linter und Static Analyzer für PHP.
  • Markus Staab engagiert sich in zahlreichen Projekten wie PHPStan, Rector und PHPUnit.
  • Kyrian Obikwelu erforscht KI- und MCP-Anwendungen im PHP-Umfeld.
  • Sjon Hortensius betreibt 3v4l.org, eine Online-Shell, die in der PHP-Community weit verbreitet ist.

Ein fünfter Platz ist noch offen – die Community ist eingeladen, passende Personen oder Projekte vorzuschlagen. Nähere Informationen zum Vorgehen bietet der Beitrag auf dem JetBrains-Blog.


betterCode() PHP am 25. November 2025

betterCode() PHP am 25. November 2025

(Bild: nuevoimg / 123rf.com)

Am 25. November findet die betterCode() PHP statt, eine Online-Konferenz von iX und dpunkt.verlag in Kooperation mit thePHP.cc. Interessierte können sich in Vorträgen und Diskussionsrunden über die Programmiersprache informieren. Vergünstigte Tickets zum Early-Bird-Tarif sind über die Konferenz-Website erhältlich.

Im Zuge dieser neuen, jährlich wechselnden Förderstrategie beendet JetBrains die Unterstützung für zwei langjährige Projekte: Xdebug von Derick Rethans und CodeSniffer von Juliette Reinders Folmer. Das Unternehmen betont, dass dies nicht aus inhaltlichen Gründen geschieht, sondern um Platz für neue Projekte zu schaffen, die ebenfalls von der Förderung profitieren sollen.

JetBrains ruft andere Unternehmen und Entwickler auf, sich ebenfalls finanziell an der Open-Source-Förderung zu beteiligen: „Wir glauben an die Kraft von Open Source. Lasst uns gemeinsam PHP noch besser machen.“


(mdo)



Source link

Weiterlesen

Entwicklung & Code

SoftwareArchitekTOUR – Episode 106: Model Context Protocol in der Praxis


In dieser Folge taucht Patrick Roos mit Gast Ole Wendland von INNOQ in das Thema Model Context Protocol (MCP) ein – oft als USB-Stecker für KI bezeichnet. MCP ist ein offener Standard, der die Fähigkeiten von Large Language Models über das Lesen hinaus erweitert und ihnen sogar das Handeln ermöglicht: Tools nutzen, Daten abfragen und Workflows anstoßen.

Doch was bedeutet das für die Softwarearchitektur? Gemeinsam diskutieren wir:

  • die Basics von MCP und seine zentralen Bausteine,
  • Chancen und Herausforderungen für Architektinnen und -architekten: Security, AuthN/AuthZ, Prompt-Injections, Latenz, Performance,
  • passende Praxisbeispiele – von lesenden MCP-Servern bis zu produktiven Agent-Workflows,
  • warum man beim Einstieg klein starten sollte, bevor man große Multi-Agent-Landschaften plant und
  • welchen Einfluss MCP auf Themen wie Vendor-Lock-in und Architekturentscheidungen hat.

Eine Folge voller Insights, Learnings und Augenöffner – für alle, die verstehen wollen, wie KI künftig aktiv in unsere Systemlandschaften eingreift.


Chatbot steht auf Smartphone

Chatbot steht auf Smartphone

(Bild: Golden Sikorka/Shutterstock)

Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.


(who)



Source link

Weiterlesen

Entwicklung & Code

Meta integriert KI-Chats in Empfehlungen auf Facebook und Instagram


Ab dem 16. Dezember 2025 will Meta Gespräche mit seinen KI-Funktionen in die Personalisierung von Facebook und Instagram einbeziehen. Damit sollen nicht nur Likes, Kommentare oder geteilte Inhalte eine Rolle spielen, sondern auch Text- und Sprachinteraktionen mit „Meta AI“. Diese zusätzlichen Datenpunkte erweitern laut Ankündigungsbeitrag die Möglichkeiten des Unternehmens, Empfehlungen gezielter auf die Interessen der Nutzerinnen und Nutzer abzustimmen.

Als Beispiel nennt Meta eine Unterhaltung übers Wandern: Wer ein solches Thema mit der KI bespricht, kann künftig Empfehlungen zu passenden Facebook-Gruppen, Reels über Outdoor-Themen oder Werbung für Ausrüstung sehen. Das Vorgehen folgt derselben Logik wie bisherige Personalisierungsmechanismen, erweitert diese jedoch um den direkten Austausch mit den KI-Funktionen.

Meta betont, sensible Informationen nicht für Werbezwecke nutzen zu wollen. Dazu zählen Angaben zu Religion, sexueller Orientierung, politischer Einstellung, Gesundheit, ethnischer Herkunft oder Gewerkschaftszugehörigkeit. Gespräche über diese Themen sollen weder Inhalte im Feed noch personalisierte Anzeigen beeinflussen.

Damit versucht das Unternehmen, Sorgen vor einer zu tiefgehenden Auswertung privater Themen zu adressieren. In den offiziellen Informationen unterstreicht Meta, dass diese Grenzen bereits bei der bisherigen Datennutzung gelten und auch in den neuen KI-basierten Systemen eingehalten werden sollen.

Neben den automatischen Personalisierungen sollen weiterhin individuelle Anpassungen möglich sein. Über die bekannten Werkzeuge wie Ads Preferences oder Feed-Kontrollen können Nutzende ihre Anzeige- und Inhaltseinstellungen verändern. Damit bleibt es ihnen selbst überlassen, den Einfluss von KI-Empfehlungen einzugrenzen oder zu verstärken.

Außerdem können Menschen entscheiden, wie sie mit Meta AI interagieren möchten – per Spracheingabe oder Text. Bei Sprachbefehlen erscheint ein Hinweislicht, das signalisiert, dass das Mikrofon aktiv genutzt wird. Meta betont, dass eine Aufnahme nur erfolgt, wenn die Zustimmung vorliegt und eine entsprechende Funktion bewusst Verwendung findet.

Ein zentraler Punkt ist die Verknüpfung verschiedener Meta-Dienste über das Accounts Center. Nur wenn Nutzerinnen und Nutzer ihre Konten dort registrieren, fließen die Daten auch plattformübergreifend in die Empfehlungen ein. Wer beispielsweise WhatsApp nicht mit dem Accounts Center verbindet, muss laut Ankündigungsbeitrag nicht damit rechnen, dass KI-Chats aus dem Messenger das Facebook- oder Instagram-Erlebnis beeinflussen.

Auf diese Weise versucht Meta, den Nutzenden selbst mehr Kontrolle über die Reichweite ihrer Interaktionen zu geben. Die Entscheidung, welche Informationen zwischen den Plattformen geteilt werden, liegt bei denjenigen, die ihre Konten verknüpfen oder getrennt halten.

Die geplanten Änderungen treten am 16. Dezember 2025 in Kraft. Meta kündigt an, Nutzerinnen und Nutzer vorab per Benachrichtigungen und E-Mails zu informieren, sodass ausreichend Zeit bleiben soll, Einstellungen zu überprüfen oder anzupassen.

Die Einführung soll schrittweise erfolgen. Zunächst wird das Update in den meisten Regionen umgesetzt, später möchte das Unternehmen die Funktion weltweit bereitstellen.


(mdo)



Source link

Weiterlesen

Beliebt