Entwicklung & Code
KI Navigator #13: Künstliche Intelligenz überholt das Daily
Willkommen zur dreizehnten Ausgabe der KI-Navigator-Kolumne der DOAG KI Community!
Dr. Konstantin Hopf leitet die Data-Analytics-Forschungsgruppe am Lehrstuhl für Wirtschaftsinformatik, insb. Energieeffiziente Systeme der Universität Bamberg. In industrienahen Forschungsprojekten entwickelt er betriebliche Anwendungen maschineller Lernverfahren. Er erforscht zudem Konzepte für das strategische Management von KI-Initiativen und Data-Science-Teams. Seine Forschungsergebnisse erscheinen in führenden Zeitschriften und Tagungsbänden der Wirtschaftsinformatik, aber auch in der Fach- und Tagespresse.
Jun.-Prof. Dr. Karoline Glaser ist Juniorprofessorin für Wirtschaftsinformatik, insbesondere Management Analytics an der Technischen Universität Dresden. In ihrer Forschung untersucht sie die Entwicklung und Nutzung von Informationssystemen im Unternehmenskontext. Unter anderem fokussiert sie dabei die Integration von künstlicher Intelligenz, um zu verstehen, wie diese Technologien Interaktionen neu gestalten. Ihre Forschungsergebnisse sind in führenden Konferenzberichten der Wirtschaftsinformatik erschienen, darunter die International Conference on Information Systems.
Daniel Dorsch leitet das Team „Agile Organisation“ bei der QualityMinds GmbH. Dabei beschäftigt ihn seit mehr als einem Jahrzehnt die Fragestellung, wie Menschen in der besten Art und Weise zusammenarbeiten, um gemeinsam Großes zu vollbringen. Seine Schwerpunkte liegen in der Etablierung und Weiterentwicklung von (agilen) Teamstrukturen und Organisationseinheiten, moderner Führung sowie dem Management von Unternehmenstransformationen.
Generative KI-Tools helfen Einzelnen dabei, Texte zu schreiben, zu programmieren oder Bilder zu erstellen. Aber sie verändern auch, wie Teams zusammenarbeiten. Intelligente Agenten können künftig komplette Aufgabenbereiche in Teams übernehmen und Aufgaben nach Expertise zuweisen, die nächsten Arbeitsschritte aus Diskussionen ableiten oder Softwaretests generieren.
Das stellt bewährte Methoden des Projektmanagements und der Softwareentwicklung auf den Prüfstand. KI-basierte Systeme unterscheiden sich grundlegend von bisheriger Software: Statt klar definierter Regeln im Programmcode treffen probabilistische Modelle teils unsichere Vorhersagen. Das Regelwerk der Modelle kann sich über die Zeit verändern, wenn die ML-Verfahren neue Zusammenhänge in den Daten aufdecken.
Die Ergebnisse der Systeme sind heute schon teilweise besser als die von Menschen. So wird der Einsatz von KI in der Softwareentwicklung zum „Outsourcing Deluxe“. Eine Herausforderung dabei ist, dass KI-basierte Systeme komplex und teils mit unseren menschlichen Ansätzen nicht erklärbar sind.
(Bild: DOAG)
Die Konferenz KI Navigator zeigt am 19. und 20. November in Nürnberg die Anwendung von KI in den Bereichen IT, Wirtschaft und Gesellschaft. Die von DOAG, heise conferences und de’ge’pol ausgerichtete Veranstaltung bietet gut 100 Sessions. Bis zum 1. Oktober sind Tickets zum vergünstigten Frühbucherpreis von 990 Euro (zzgl. MwSt.) verfügbar.
All das hat Auswirkungen auf die Arbeitsweise in Teams. Sogar agile Arbeitsansätze wie Scrum geraten unter Druck – nicht, weil die Methoden überholt sind, sondern weil die Teams sie an die neuen Bedingungen anpassen müssen.
Um diese Veränderung besser zu verstehen, haben wir Experten aus dem Bereich Agilität und Data Science zusammengebracht und den Einfluss von KI auf Agilität erörtert. Die ersten Ergebnisse dieses Erfahrungsaustauschs zeigen wir in dieser Ausgabe der KI-Kolumne.
Der Workshop „Macht KI mein Scrum kaputt? Wie Künstliche Intelligenz Agilität verändert“ fand im November 2024 in Nürnberg in den Räumen von QualityMinds statt. Nach zwei Impulsvorträgen zu KI-Systemen und agilen Methoden teilten sich die gut 30 Teilnehmerinnen und Teilnehmer aus den Communitys der Agilisten und der Data Scientists in drei Gruppen auf und diskutierten nach der 1-2-4-All-Methode, bei der schrittweise die Zahl der an der Diskussion Beteiligten steigt. Unser Dank geht an Manuel Illi und Ursula Maichen, die diesen Workshop mit uns geplant, moderiert und durchgeführt haben.
Passen KI und agile Methoden zusammen?
In den vergangenen Jahren galten agile Methoden als Wundermittel, um komplexe Probleme zu lösen und mit den rasanten Veränderungen am Markt bezüglich Kundenanforderungen und Technologie mithalten zu können. Methoden wie Scrum operationalisieren agile Prinzipien in der Teamarbeit und sollen Unternehmen befähigen, Veränderungen zu antizipieren und darauf zielgerichtet zu reagieren. Im weiteren Verlauf legt dieser Artikel den Fokus auf Scrum, genauer gesagt die agilen Events und Rollen innerhalb des Scrum-Frameworks.
In der Theorie scheint es, als würden agile Methoden und KI wunderbar zusammenwirken. Sowohl KI-Projekte als auch die agilen Methoden fordern ein hypothesengetriebenes, iterativ-inkrementelles Arbeiten und ermöglichen eine Fehlerkultur. Trotzdem oder gerade deshalb entbrannte im Rahmen unseres Workshops eine rege Diskussion zwischen den Agilisten und den stärker explorativ arbeitenden Data Scientists, die sich in zwei Richtungen entwickelte.
KI in agile Arbeitsweise integrieren
Die erste Richtung drehte sich um die Frage, wie KI dabei helfen kann, agile Produktentwicklung zu optimieren. In der Softwareentwicklung ist beispielsweise nicht jede Tätigkeit komplex, sondern viele Aktivitäten sind gut einschätzbar und planbar. Das führt in der Praxis dazu, dass Sprintziele oft mit konkreten Features oder Aufgaben gleichgesetzt werden und somit der Fokus häufig auf gesteigerter Effizienz liegt: mehr Software in weniger Zeit. Im Rahmen der KI-Navigator-Kolumne haben Semjon Mössinger und Bastian Weinlich fünf Stufen der KI-Nutzung in der Softwareentwicklung beschrieben. Für nahezu jede Aktivität in der Softwareentwicklung gibt es bereits Tools, um den Prozess (teilweise) zu automatisieren. Die folgende Tabelle nennt einige Beispiele von KI-Anwendungen im Softwareentwicklungsprozess.
Softwareentwicklungsprozess | KI-Unterstützung (Beispiele) |
Anforderungsanalyse | Generieren von Ideen und Mockups, Transkription von Besprechungen |
Planung und Analyse | Backlog-Generierung und Analyse |
Design und Architektur | Generierung von Architekturmodellen, Simulationen und Gap-Analysen |
Implementierung | Copiloten und Vibe-Coding |
CI und Testen | Test-Case-Generierung, Testautomation, Generierung von Infrastructure as Code |
Review und Feedback | KI-Agenten für Feedback (intern) |
Deployment | Agenten für Infrastructure as Code |
Monitoring und Wartung | AIOps-Werkzeuge, Incident Prediction, Chatbots für First-Level-Support |
Nutzerfeedback und Auswertung | KI-Agenten für Feedback (extern) |
Kontinuierliche Verbesserung | Empfehlungssysteme |
Produkte mit KI-Anteil entwickeln
Die zweite Richtung der Diskussion drehte sich um die Frage, wie Teams agile Methoden verändern müssen, wenn sie datengetriebene, KI-basierte Systeme statt klassischer Software entwickeln. Diese Systeme verarbeiten große, oft unstrukturierte Datenmengen, deren Qualität entscheidend für die Leistungsfähigkeit der späteren Anwendung ist. Die Entwicklung ist von Hypothesen getrieben, die das Team testet und anpasst, und orientiert sich nur wenig an konkreten Anforderungen. Ergebnisse entstehen nicht linear, sondern durch Exploration und Experimentieren. Das Validieren der Ergebnisse ist besonders komplex, da ein KI-Modell oft nur als Ganzes sinnvoll testbar ist und isolierte Zwischenergebnisse wenig Aussagekraft besitzen. Zudem gilt es, KI-Anwendungen regelmäßig nachzutrainieren und an neue Daten anzupassen, um aktuell und leistungsfähig zu bleiben.
Agile Methoden wie Scrum setzen prinzipiell auf klar strukturierte Rhythmen: Sprintplanung, Review, Retrospektive. Sie verfolgen das Ziel, früh sichtbare Ergebnisse zu liefern, die sich iterativ verbessern lassen. In der Theorie passen agile Methoden somit gut zur Entwicklung von Produkten, die zumindest einen KI-Anteil haben. Insbesondere die schnellen Iterationen, das Fördern funktionsübergreifender Zusammenarbeit und die hohe Anpassungsfähigkeit an geänderte Anforderungen durch häufige Feedbackschleifen schaffen scheinbar ideale Voraussetzungen für die KI-Entwicklung. So können Teams flexibel auf neue Erkenntnisse reagieren und den Entwicklungsprozess kontinuierlich verbessern.
In der Praxis stoßen agile Implementierungen bei KI- und Data-Science-Projekten jedoch an ihre Grenzen. Data Scientists beklagen übermäßigen Aufwand durch die Pflege oder Definition von Issues oder fühlen sich gedrängt, am Ende des Sprints ein Zwischenergebnis der explorativen Arbeit zu zeigen. Auch Sprintziele lassen sich nur schwer als präzises Ergebnis definieren. Die Rolle des Product Owners verliert an Kontur, da ein kontinuierlicher Erkenntnisgewinn das Produkt deutlich verändert. Einige Teams improvisieren daher und können so ihre methodische Klarheit verlieren, was zu einem ineffektiven Methodeneinsatz führen kann.
Entwicklung & Code
So exakt, wie die Bahn pünktlich ist: Ansprüche deutscher Firmen an KI-Systeme
76 Prozent der Datenverantwortlichen aus deutschen Unternehmen haben im vergangenen Jahr geschäftliche Probleme oder Krisen durch KI-Halluzinationen oder ungenaue KI-Antworten erlebt. Dabei haben 56 Prozent ein gekauftes KI-Agenten-System wegen mangelhafter Performance aufgegeben. 78 Prozent glauben sogar, dass die Chefetage im Unternehmen die Genauigkeit der KI-Systeme überschätzen würde. In allen drei Bereichen liegen deutsche Unternehmen damit deutlich über dem internationalen Durchschnitt – der liegt bei 59 Prozent bei den Geschäftsproblemen, bei 45 Prozent bei den mangelhaften Systemen und 68 Prozent bei der CEO-Einschätzung der Genauigkeit.
Das geht aus einer Umfrage unter dem Titel Global AI Confessions des US-amerikanischen Marktforschungsunternehmens The Harris Poll hervor. Auftraggeber der Befragung ist Dataiku, ein Anbieter einer Plattform für KI- und ML-Dienste. In 812 Online-Interviews beantworteten 203 Datenverantwortliche aus den USA, 103 aus Deutschland, 103 aus Japan, 102 aus Großbritannien, 101 aus Frankreich, 100 aus den Vereinigten Arabischen Emiraten, 50 aus Singapur und 50 aus Südkorea die Fragen der Marktforscher. Alle Teilnehmer arbeiten für große Unternehmen mit einem Jahresumsatz von mehr als 1 Milliarde US-Dollar oder den regionalen Äquivalenten. Die Umfrageteilnehmer sind auf Vice-President-, Director-, Managing Director- oder C-Suite-Ebene in Daten-, Analytics- oder KI-relevanten Funktionen tätig.
Deutsche nehmen es nicht so genau
Von den deutschen Befragten verlangten nur vier Prozent eine Genauigkeit der Systeme von 95 bis 100 Prozent, international waren es 15 Prozent. 53 Prozent der Deutschen gaben sich mit weniger als 80 Prozent Genauigkeit bei KI-gestützten Entscheidungen zufrieden, bei einem internationalen Durchschnitt von 38 Prozent. Die Marktforscher sehen hier eine Verbindung zur deutschen Höchstrate der Projekte, die an geringer Qualität scheitern.
Knapp 60 Prozent der Befragten gaben weiterhin an, nur auf eine Katastrophe durch KI-Halluzinationen in geschäftskritischen Workflows zu warten. Ebenso viele fürchten finanzielle Risiken durch unkontrollierte API- und Service-Kosten durch KI-Agenten. Dabei verlangen nur 17 Prozent der deutschen Datenverantwortlichen eine vollständige End-to-End-Nachvollziehbarkeit von Multi-Agent-Workflows (global: 20 Prozent). 34 Prozent der Teilnehmer aus Deutschland gaben an, dass ihre Teams weniger als die Hälfte der KI-Entscheidungen im Sinne aktueller regulatorischer Auflagen nachverfolgen könnte. 58 Prozent hätten sogar KI-Agenten-Deployments wegen mangelnder Erklärbarkeit verzögert oder blockiert. Nur fünf Prozent der Gesamtzahl der international Befragten gab an, die Entscheidungen ihrer KI-Systeme zu 100 Prozent erfassen zu können.
Von den Deutschen befürchten 63 Prozent, dass Kunden Schäden durch ihre KI-Agenten entstehen könnten, während sogar 69 Prozent glauben, dass KI-Systeme ihren Mitarbeitern schaden könnten. Mögliche Security-Bedenken bespricht die Umfrage nicht weiter im Detail – erst kürzlich kam heraus, dass selbst der Branchenführer OpenAI nicht imstande ist, persönliche Daten aus E-Mails seiner Nutzer vor Angreifern zu schützen und die Kenntnis eines entsprechenden Exploits monatelang verschwieg.
Die Geschäftsführung überschätzt die Technik
In der Pressemitteilung zur Umfrage spricht Dataiku von einer „Kluft zwischen C-Suite-Erwartungen und technischer Realität“. Diese sei in Deutschland besonders ausgeprägt: Fast 80 Prozent der Datenverantwortlichen sei überzeugt, dass ihre Chefetage die Genauigkeit der KI-Systeme überschätzen würde. International lag dieser Eindruck bei 68 Prozent. 82 Prozent der Deutschen gaben an, dass die Geschäftsführung die Zeit und Schwierigkeiten, KI-Systeme zur Produktionsreife zu bringen, unterschätzt. Von den Befragten erwarten etwa 70 Prozent, dass ein CEO bis Ende 2026 aufgrund einer gescheiterten KI-Strategie oder einer KI-induzierten Krise entlassen wird. Im globalen Durchschnitt erwarten dies 56 Prozent der Befragten.
Eine ähnliche Umfrage unter CEOs aus dem März 2025 ergab, dass unter 100 deutschen CEOs ebenfalls knapp 70 Prozent mit Entlassungen wegen KI-Projekten rechnet. Aus der CEO-Umfrage ging außerdem hervor, dass 95 Prozent der deutschen Geschäftsführer den Eindruck haben, KI-Agenten könnten bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben als ein menschliches Vorstandsmitglied. 76 Prozent der Datenverantwortlichen teilen die Auffassung, dass KI-generierten Geschäftsempfehlungen in ihren Unternehmen mehr Gewicht zukommt als denen von menschlichen Mitarbeitenden. Auch hier ist Deutschland Umfrageführer, wobei der Durchschnitt bei 69 Prozent liegt.
Die Umfragen unter den CEOs und den Datenverantwortlichen finden sich hier und hier. Der Zugriff erfordert die Angabe einer E-Mail-Adresse.
(pst)
Entwicklung & Code
Uno Platform 6.3 bringt Preview-Support für .NET 10.0 und Visual Studio 2026
Uno Platform 6.3 ist mit Preview-Support für .NET 10.0 erschienen. Das quelloffene Cross-Platform-GUI-Framework für .NET bereitet sich nicht nur auf das für November geplante .NET-Release vor, sondern bietet auch schon Kompatibilität mit Visual Studio 2026.
Neues Zielframework .NET 10.0
In Uno Platform besteht nun neben dem Support für die aktuelle, stabile Version .NET 9.0 auch Preview-Support für .NET 10.0 Release Candidate 1. Am 11. November 2025 soll laut Microsoft das finale Release mit Long-Term Support erscheinen. Im Wizard der Uno Platform lässt sich .NET 10.0 direkt als Zielframework auswählen:
Uno Platform 6.3 bietet .NET 10.0 im Wizard zur Auswahl an.
(Bild: Uno Platform)
Dabei ist zu beachten, dass das Zusammenspiel mit .NET 10.0 als Ziel derzeit nicht für die Produktion geeignet ist. Stabile Produktionsapps sollen bis zum offiziellen .NET-10.0-Release bei .NET 9.0 verbleiben. Für die Migration auf Version 10.0 bietet das Uno-Platform-Team einen Migrationsguide an.
(Bild: coffeemill/123rf.com)
Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informieren .NET-Profis auf der Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, künstliche Intelligenz und Web-APIs.
Der Support für .NET 8.0 ist unterdessen entfallen. Dabei handelt es sich um das derzeit aktuelle LTS-Release mit Support bis November 2026. Jedoch hat .NET MAUI 8.0 bereits im Mai 2025 sein End-of-Life-Datum erreicht, weshalb Uno Platform sich von dieser .NET-Version abwendet.
Bereit für Visual Studio 2026
Visual Studio 2026, die nächste Hauptversion von Microsofts Entwicklungsumgebung, ist in einem Insider-Programm verfügbar. Auch Uno Platform bereitet sich auf die neue Version vor und ist mit ihren Updates kompatibel, darunter das neue .slnx-Format als verständlicherem Ersatz für .sln-Dateien. Dabei ist Uno Platform 6.3 auch weiterhin mit Visual Studio 2022 kompatibel, sodass Uno-Platform-User beide Versionen im Einsatz haben können. Ebenso wie der Support für .NET 10.0 ist auch jener für Visual Studio 2026 als Preview gekennzeichnet.
Weitere neue Features in Uno Platform 6.3 gibt es unter anderem für den visuellen Designer Hot Design, der im kostenpflichtigen Uno Platform Studio enthalten ist. Auch sollen grafiklastige Apps mit WebAssembly nun glatter funktionieren und die TabView über verschiedene Zielplattformen hinweg konsistenter und verlässlicher sein.
Alle weiteren Details zu Uno Platform 6.3 hält der Blogeintrag zur Ankündigung bereit.
(mai)
Entwicklung & Code
Aus Softwarefehlern lernen – Teil 3: Ein Marssonde gerät außer Kontrolle
In der modernen Softwareentwicklung ist Nebenläufigkeit allgegenwärtig. Selbst kleine Anwendungen laufen oft auf Systemen mit mehreren Kernen, interagieren mit Datenbanken, warten auf Netzwerkantworten oder teilen sich Ressourcen wie Dateien und Speicherbereiche. In verteilten Systemen und Embedded-Software kommt noch hinzu, dass verschiedene Prozesse aufeinander reagieren müssen, oft unter Echtzeitbedingungen. Die Praxis zeigt: Sobald mehrere Dinge gleichzeitig passieren können, entstehen neue Fehlerklassen, die sich in seriellen Programmen nie gezeigt hätten.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Die Teile der Serie „Aus Softwarefehlern lernen“:
Muster 3: Concurrency und Scheduling: Wenn sich Prozesse gegenseitig blockieren
Ein berühmtes Beispiel ist der Mars Pathfinder, eine NASA-Mission aus dem Jahr 1997. Die Landung selbst war ein spektakulärer Erfolg – die Sonde setzte sanft auf dem Mars auf und begann, Daten zu senden. Doch kurz darauf kam es zu sporadischen Systemabstürzen und automatischen Resets, die das Team am Boden in Alarmbereitschaft versetzten.
Die Ursache war eine Priority Inversion, ein klassisches Concurrency-Problem. In einem Echtzeitbetriebssystem gibt es Aufgaben mit unterschiedlicher Priorität. Hohe Priorität bedeutet: Diese Aufgabe soll möglichst sofort laufen, sobald sie bereit ist. Niedrige Priorität darf sie nicht blockieren.
Auf dem Pathfinder lief eine solche hochpriorisierte Aufgabe, die Daten vom Wettersensor verarbeitete. Sie benötigte jedoch Zugriff auf eine gemeinsame Ressource – in diesem Fall einen Mutex, der von einer niedrig priorisierten Aufgabe gehalten wurde. Diese niedrig priorisierte Aufgabe wurde wiederum von einer mittel priorisierten Aufgabe ständig verdrängt. Das Ergebnis: Die hochpriorisierte Aufgabe wartete indirekt auf eine niedrige, die nie zum Zuge kam.
Dieses Phänomen der „Umkehrung der Prioritäten“ führte dazu, dass das System in bestimmten Lastsituationen hängen blieb und schließlich neu startete. Die Lösung war im Prinzip einfach: Die Entwicklerinnen und Entwickler aktivierten Priority-Inheritance im Echtzeitbetriebssystem VxWorks. Dadurch erbte die blockierende, niedrig priorisierte Aufgabe vorübergehend die hohe Priorität, sobald eine höherwertige Aufgabe auf sie wartete. Der Knoten löste sich, und die Abstürze verschwanden.
Dieses Beispiel ist lehrreich, weil es gleich mehrere typische Muster verdeutlicht:
- Nebenläufigkeitsfehler sind schwer zu reproduzieren: Sie treten oft nur unter bestimmten Lastprofilen auf.
- Redundanz oder Wiederholungen helfen nicht automatisch: Wenn der Fehler im Design liegt, trifft er alle Instanzen gleichermaßen.
- Kleinste Details im Scheduling können den Unterschied machen: Die Software kann tausendmal korrekt laufen und beim tausend-und-ersten Mal ausfallen.
In modernen Anwendungen können ähnliche Probleme in Form von Deadlocks, Race Conditions oder Livelocks auftreten. Diese zeigen sich meist nicht im lokalen Testlauf, sondern erst in der Produktion, wenn reale Last und reale Parallelität wirken. Doch wie lassen sich solche Fehler vermeiden?
- Klare Lock-Hierarchien: Wenn mehrere Ressourcen gesperrt werden, sollte immer in derselben Reihenfolge gelockt werden.
- Prioritätsprotokolle nutzen: Mechanismen wie Priority Inheritance oder Priority Ceiling sind in vielen Echtzeitbetriebssystemen und sogar in modernen Frameworks verfügbar.
- Nebenläufigkeit entkoppeln: Statt gemeinsame Zustände direkt zu sperren, können Architekturen mit Message Passing oder Actor-Modellen Race Conditions vermeiden.
- Deterministische Tests und Simulationen: Spezielle Testframeworks können Prozesse gezielt verzögern oder Scheduler manipulieren, um seltene Konflikte reproduzierbar zu machen.
- Telemetrie und Monitoring: Auch im Betrieb sollte sichtbar sein, wenn Locks ungewöhnlich lange gehalten werden.
Für Teams, die Web-Backends oder Cloud-Services entwickeln, zeigt sich übrigens dieselbe Gefahr, nur in geringfügig anderer Form: Datenbanktransaktionen, verteilte Caches oder konkurrierende API-Requests können ähnliche Effekte haben. Ein langsamer Hintergrundprozess blockiert einen Lock, während eine Flut von parallelen Requests diesen Zustand eskalieren lässt.
Die Lehre aus dem Pathfinder-Vorfall ist daher zeitlos: Nebenläufigkeit ist kein kostenloser Performance-Booster, sondern ein komplexes System, das Entwicklerinnen und Entwickler explizit entwerfen und überwachen müssen. Wer Concurrency als Randthema behandelt, wird früher oder später auf schwer reproduzierbare und potenziell katastrophale Fehler stoßen.
Aus Softwarefehlern lernen – die Serie
Diese Artikelserie stellt neun typische Fehlerklassen vor, die in der Praxis immer wieder auftauchen – unabhängig von Branche oder Technologie. In jeder Kategorie wird die Serie ein konkretes Beispiel vorstellen, dessen Ursachen analysieren und daraus ableiten, was Softwareentwicklerinnen und Softwareentwickler langfristig lernen können.
Im nächsten Teil lesen Sie: Zeit, Kalender und Geografie: Wenn die Uhr nicht das misst, was man denkt.
(who)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 4 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows