Connect with us

Künstliche Intelligenz

Die Produktwerker: Entscheidungen vertreten, die man selbst kritisch sieht


In dieser Folge sprechen die Produktwerker Oliver Winter und Tim Klein über eine Situation, die vielen Product Ownern vertraut sein dürfte: Eine Entscheidung wird (etwa auf höherer Ebene) getroffen, die sie so nicht nachvollziehen können oder mit der sie schlicht nicht einverstanden sind. Und trotzdem müssen sie solche Entscheidungen vertreten, zum Beispiel gegenüber ihrem Team.

Weiterlesen nach der Anzeige

Solche Momente fordern Haltung und eine gewisse Aufmerksamkeit. Als Product Owner steht man oft zwischen verschiedenen Erwartungen von Management, Team und Stakeholdern. Wenn eine Entscheidung fällt, die man selbst nicht getroffen hat, entsteht leicht ein innerer Konflikt. Soll ich loyal sein oder kritisch bleiben? Wie kann ich nach außen geschlossen auftreten, ohne mich selbst zu verbiegen?


Product Owner Day 2025, Online-Konferenz

Product Owner Day 2025, Online-Konferenz

(Bild: deagreez/123rf.com)

So geht Produktmanagement: Auf der Online-Konferenz Product Owner Day von dpunkt.verlag und iX am 13. November 2025 kannst du deinen Methodenkoffer erweitern und dich von den Good Practices anderer Unternehmen inspirieren lassen.

Oliver Winter und Tim Klein machen im Gespräch deutlich, dass Entscheidungen vertreten nicht bedeutet, sie unreflektiert zu übernehmen. Es geht darum, Verantwortung für den gemeinsamen Kurs zu tragen, auch wenn man selbst anders entschieden hätte. Gerade das unterscheidet reife Product Owner von Reaktiven. Sie wissen, dass Produktentwicklung ein Teamsport ist und Entscheidungen immer im Zusammenspiel vieler Perspektiven entstehen.

Das bedeutet jedoch nicht, dass man alles einfach akzeptieren muss. Produktverantwortung bleibt auch in solchen Momenten bestehen. Wer Entscheidungen vertreten soll, darf sie hinterfragen, verstehen und einordnen. Erst wenn man nachvollziehen kann, warum ein bestimmter Weg eingeschlagen wird, kann man ihn glaubwürdig gegenüber dem Team kommunizieren. Das erfordert Gesprächsbereitschaft und Mut, besonders gegenüber Führungskräften oder Stakeholdern, die schnelle Ergebnisse erwarten.

Weiterlesen nach der Anzeige

Oliver Winter beschreibt, wie hilfreich es ist, bewusst zwischen der eigenen Meinung und der gemeinsamen Entscheidung zu differenzieren. Man darf anderer Meinung sein und trotzdem nach außen klar auftreten. Tim Klein betont, dass Transparenz im Team entscheidend ist. Wenn Product Owner selbst unsicher wirken, verlieren Teams Orientierung. Offenheit nach innen, Geschlossenheit nach außen. Diese Balance prägt professionelle Product Ownership.

Entscheidungen vertreten heißt auch, sich selbst zu reflektieren: Woher kommt mein Widerstand? Geht es um Prinzipien, um persönliche Präferenzen oder um fehlende Informationen? Erst, wenn man das versteht, kann man konstruktiv handeln. Manchmal hilft es, die Entscheidung als Experiment zu betrachten. Nicht jede falsche Richtung ist ein Scheitern, solange man bereit ist, daraus zu lernen.

Für Product Owner ist das ein Lernfeld, das mit der Zeit leichter wird. Denn wer regelmäßig Entscheidungen vertreten muss, die er nicht mag, lernt, zwischen Zustimmung und Verantwortung zu unterscheiden. Und das schafft Vertrauen im Team, bei Stakeholdern und im gesamten Produktumfeld.

Auf folgende frühere Episoden dieses Podcasts verweisen die beiden im Gespräch:

Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Entscheidungen vertreten, die mir als Product Owner nicht gefallen„.


(mai)



Source link

Künstliche Intelligenz

Microsoft will KI-Agenten smarter machen und mit Agent 365 besser überwachen


Microsoft hat mehrere neue Produkte und Funktionen Künstlicher Intelligenz (KI) angekündigt. So soll der erweiterte Zugriff auf Unternehmensdaten KI-Agenten intelligenter machen, sodass diese Menschen besser unterstützen können (sollen). Microsofts „Agent Factory“ soll die Erstellung eigener KI-Agenten vereinfachen, während „Agent 365“ zur Verwaltung und Kontrolle dieser KI-Agenten dient. Diese Steuerungsebene soll den sicheren Einsatz der KI-Agenten gewährleisten.

Weiterlesen nach der Anzeige

Diese und andere Ankündigungen erfolgten im Rahmen der Hausmesse „Ignite 2025“, wo Microsoft nicht müde wird zu betonen, dass KI zur Unterstützung von Menschen und Mitarbeitern dient. Nach Ansicht des Konzerns werden moderne Unternehmen künftig „von Menschen geführt und von Agenten betrieben“. Das hat Microsoft teilweise auch bereits selbst umgesetzt, denn im Juli dieses Jahres erklärte ein hochrangiger Manager des Konzerns, dass Microsoft 500 Millionen Dollar durch KI einspart. Denn dafür mussten 15.000 Mitarbeiter gehen.

Diesen Weg ebnet Microsoft auch anderen Unternehmen durch eigene KI-Agenten. Zur Verbesserung dieser KI gehört Work IQ, das durch Zugriff auf Unternehmensdaten, Speicher und KI-Abfragen Wissen anhäuft. Auf Basis von E-Mails, Dateien, Meetings und Chats kann Copilot damit „Zusammenhänge erkennen, neue Erkenntnisse gewinnen und die nächsten sinnvollen Schritte vorschlagen“, schreibt Microsoft. Dazu kommen Fabric IQ, ein Modell auf Basis von Analyse-, Zeitreihen- und standortbasierten Daten, sowie Foundry IQ, ein „voll gemanagtes Wissenssystem“ aus mehreren Datenquellen für KI-Agenten.

Darauf aufbauend lassen sich mit Microsofts „Agent Factory“ individuelle KI-Agenten entwickeln, die dann per Microsoft 365 Copilot zur Verfügung stehen. Verwaltet und überwacht werden diese KI-Agenten mit „Agent 365“. Der Konzern vergleicht dies mit dem Management von Mitarbeitern, denn die KI-Agenten werden „mit vielen derselben Apps und Schutzmaßnahmen wie Menschen“ ausgestattet, aber eben auf KI-Bedürfnisse zugeschnitten. Dadurch sollen KI-Agenten schneller und einfacher in Geschäftsprozesse integriert werden können.

Denn an KI-Agenten kommen moderne Unternehmen nach Ansicht Microsofts nicht vorbei. Sie würden Aufgaben automatisieren, mit Menschen zusammenarbeiten und die Produktivität beschleunigen. Der Konzern verweist dabei auf die Prognose der Marktforscher von IDC, nach der es bis 2028 bereits 1,3 Milliarden KI-Agenten geben wird. Diese IDC-Untersuchung aus dem Mai 2025 wurde allerdings von Microsoft gesponsert, wie der Konzern per Fußnote zugibt.

Weiterlesen nach der Anzeige

Lesen Sie auch

Agent 365 wird im Admin-Zentrum von Microsoft 365 zur Verfügung stehen. Derzeit ist es aber nur über das Frontier-Programm verfügbar, in dem Anwender einen Vorabzugriff auf Funktionen erhalten, die sich noch in der Entwicklung befinden. Damit können IT-Administratoren die Erstellung, die Verwaltung und die Anwendung neuer KI-Agenten in verschiedenen Szenarien zunächst testen.


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

Google bringt Gemini 3 und Agenten-Plattform raus


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Gemini 3 ist auf allen Ebenen besser als der Vorgänger, Gemini 2.5 – das sagt Google und beruft sich dabei auch auf die Ergebnisse in der LM Arena, in der KI-Modelle gegeneinander antreten. Die neue Version wird ab sofort für Verbraucher, Entwickler und Unternehmen verfügbar gemacht. Zudem bietet Google künftig mit Antigravity eine Plattform an, über die KI-Agenten erstellt und betreut werden können.

Mit Gemini 3 soll jeder jede Idee zum Leben erwecken können. Das Modell sei besonders gut im Reasoning, also im Nachdenkprozess, sowie im Vibe Coding – so nennt sich Programmieren, wenn die Anweisungen in natürlicher Sprache von KI ausgeführt werden. Außerdem soll Gemini 3 den Kontext und die Absicht einer Anfrage besser verstehen. In einem Blogbeitrag schreibt Google-CEO Sundar Pichai, es sei aufregend, wie KI nicht mehr nur Text und Bilder lesen kann, sondern inzwischen auch den Raum versteht. Was Google nicht erklärt und auch auf Nachfrage schmallippig antwortet: Wie genau das Modell denn verbessert worden ist. Gibt es eine neue Architektur, andere Trainingsdaten oder wurden mehr Daten genutzt? Es habe überall Verbesserungen gegeben, heißt es in einem Gespräch.

Nun zieht Gemini 3 in die Gemini App. Der zuständige Google-VP, Josh Woodward, sagt, jeder würde sofort merken können, wie viel hilfreicher Gemini mit dem Update geworden ist. Er zeigt in einer Pressevorführung, wie Gemini den Output neu sortieren kann. Der gesamte Look ist überarbeitet worden. Als Beispiel muss natürlich – wie bei fast jeder KI-Präsentation – das Thema Reiseplanung herhalten. Die App liefert Informationen fast im Stil eines Hochglanz-Magazins. Woodward zeigt auch ein Storytelling über Vincent Van Gogh – ebenfalls bunt, dynamisch und schick. Freilich bleibt immer die Frage, ob alle Informationen richtig sind, ob es Halluzinationen gibt und woher die Informationen stammen. KI ist nach wie vor auch bei Google ein Experiment.


Reise planen mit Gemini

Reise planen mit Gemini

(Bild: Google)

So kommt es denn auch, dass Gemini 3 Deep Think, ein auf Reasoning spezialisiertes Modell, zunächst noch von Sicherheitsforschern getestet wird und nur für Google AI Ultra Abonnenten verfügbar ist.

Laut Googles Deepmind-CEO Demis Hassabis, schlägt Gemini 3 Pro alle anderen Modelle in der LM Arena – mit 1501 Punkten in der Bestenliste. In Humane`s Last Exam schafft es beispielsweise 37,5 Prozent (Gemini 2.5 Pro hat 21,6 Prozent richtig beantwortet). Gemini 3 Deep Think erreicht sogar 41 Prozent.

Weiterlesen nach der Anzeige

Auch die Suche baut künftig auf Gemini 3 auf – gemeint ist damit der AI Mode. Für Google AI Pro und Ultra Abonnenten zunächst in den USA gibt es sogar noch eine Erweiterung namens Thinking, in der Gemini 3 Pro genutzt wird. Google spricht davon, dass der KI-Modus ein neues, generatives User-Interface erhält. Gemeint ist, dass sich etwa ganze Passagen in die Promptbar verschieben lassen, sowie interaktive Layouts und Simulationen, die das KI-Modell erstellt. Dafür greift Gemini auch auf die eigenen agentischen Fähigkeiten zurück.

Um KI-Agenten zu erstellen und zu verwalten, gibt es nun eine neue Plattform: Google Antigravity. Sie richtet sich an Entwickler. Es geht also nicht um einen Agenten, der aus dem Chat heraus mal eben ein Paar Socken für den Nutzer kauft, wie es beispielsweise der ChatGPT Agent machen soll. Grundsätzlich handelt es sich um eine integrierte Entwickler-Umgebung (IDE). Die Agenten haben dabei Zugang zum Editor, Terminal und Browser. In Antigravity ist auch Gemini 2.5 Computer Use integriert. Das ist der KI-Agent, der den Browser bedienen kann und dafür auf Screenshots zurückgreift. Auch Nano Banana steckt als Bildgenerator in der Plattform.


Antigravity

Antigravity

Antigravity

(Bild: Google)

Entwickler haben auf Gemini 3 Zugriff via API in AI Studio, Antigravity und Gemini CLI. Für Unternehmen steht Gemini 3 via Vertex AI und Gemini Enterprise zur Verfügung.

Bei all dem soll Gemini 3 das bisher sicherste Modell von Google sein. Es sei beispielsweise weniger anfällig für Prompt Injections oder den Missbrauch für Cyberangriffe.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Grok 4.1 soll emotionaler, kreativer und faktentreuer sein


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Large Language Model Grok soll nach einem Update auf Version 4.1 mehr emotionales Einfühlungsvermögen mitbringen, kreativer, faktentreuer und schneller sein. Das verspricht zumindest Entwickler xAI und verweist auf Benchmarks wie LMArena, laut denen das KI-Modell besser als bekannte Mitbewerber wie GPT 5 von OpenAI oder Claude Sonnet 4.5 von Anthropic abschneidet. Bemerkenswert ist dabei, dass sich das schnellere Modell ohne Reasoning-Schritt ebenfalls vor anderen Modellen mit Reasoning platzieren konnte.

Weiterlesen nach der Anzeige

Grok 4.1 soll weniger oft Unsinn erzählen, sich im Gespräch angenehmer anfühlen, kreativer schreiben und schneller antworten. Laut xAI wurde das Modell in Blindtests von Nutzern gegenüber Grok 4 bevorzugt. In rund 65 Prozent der Fälle fanden sie demnach die neue Version besser.

xAI verspricht auch eine höhere Faktentreue. Das Non-Reasoning-Modell halluzinierte nur noch in 4,2 statt 12 Prozent der Fälle. Der Entwickler selbst spricht von „erheblichen Verbesserungen für die praktische Anwendbarkeit von Grok“. Das Modell ist in den USA zum Beispiel in Tesla-Fahrzeugen als Assistent integriert. Für das Training habe man auf die gleiche Infrastruktur zurückgegriffen, die auch bei Grok 4 im Einsatz war. Dieses Mal hätten jedoch die Optimierung des Stils, der Persönlichkeit und Hilfsbereitschaft sowie die Ausrichtung des Modells im Fokus gestanden.

Im LMArena-Test nahm das Thinking-Modell Platz 1 ein, was einen bedeutenden Sprung nach vorn darstellt, da Grok 4 dort noch auf Platz 33 stand. Die emotionale Intelligenz wurde mit EQ-Bench gemessen. Auch hier konnte sich Grok von Version 4 (1206 Punkte) auf Version 4.1 (1586 Punkte) deutlich verbessern. Beim kreativen Schreiben platzierte sich Grok 4.1 hinter der Preview-Version von GPT 5.1. Offenbar ist das Modell aber recht empfänglich für manipulative Prompts. Laut der Model Card habe Grok 4.1 im MakeMeSay-Test schlecht abgeschnitten. Allerdings sehen die Entwickler hierin kein großes Risiko.

Grok 4.1 ist in den Varianten Thinking (Codename quasarflux) und Non-Thinking (Codename tensor) ab sofort verfügbar auf grok.com, im Kurznachrichtendienst X sowie in den iOS- und Android-Apps. Es kann kostenlos von allen Nutzern verwendet werden und ist automatisch vorausgewählt. Zahlende Nutzer haben weniger Limits.

Weiterlesen nach der Anzeige


(mki)



Source link

Weiterlesen

Beliebt