Entwicklung & Code
Schulungsangebot tech:lounge Live! 2026: Architektur, Data Science und KI
Softwareentwicklung steht an einem Wendepunkt. Daten und Künstliche Intelligenz verändern grundlegend, wie wir Systeme entwerfen, entwickeln und betreiben. Klassische Architekturansätze stoßen an ihre Grenzen, sobald Anwendungen von datengetriebenen Entscheidungen und intelligenten Komponenten bestimmt werden. Das gilt für Start-ups ebenso wie für etablierte Unternehmen, die ihre bestehenden Systeme weiterentwickeln müssen.
Weiterlesen nach der Anzeige

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Dieser Wandel betrifft nicht nur einzelne Technologien. Er betrifft die Art und Weise, wie wir über Architektur nachdenken, wie wir mit Daten umgehen und welche Rolle Entwicklerinnen und Entwickler in diesem veränderten Umfeld einnehmen. Wer heute Software baut, die in fünf Jahren noch Bestand haben soll, kommt nicht umhin, diesen Paradigmenwechsel aktiv zu gestalten.
Warum Architektur, Daten und KI zusammengehören
In vielen Unternehmen werden Architektur, Data Science und künstliche Intelligenz nach wie vor als getrennte Disziplinen behandelt. Das klingt nach sinnvoller Arbeitsteilung. In der Praxis führt es jedoch zunehmend zu Problemen, denn die drei Bereiche sind längst nicht mehr unabhängig voneinander.
Eine Architektur, die Datenflüsse nicht von Beginn an mitdenkt, wird scheitern, sobald datengetriebene Entscheidungen eine tragende Rolle spielen. Ein Machine-Learning-Modell, das ohne Rücksicht auf die umgebende Architektur trainiert wird, lässt sich kaum produktiv integrieren. Und Data Science bleibt wirkungslos, wenn die Ergebnisse nicht in tragfähige Anwendungen überführt werden können.
Was es braucht, ist ein integriertes Verständnis aller drei Disziplinen. Entwicklerinnen und Entwickler müssen architektonische Entscheidungen im Kontext von Datenstrategien treffen können. Sie müssen verstehen, was Machine Learning leisten kann und wo seine Grenzen liegen. Und sie müssen wissen, wie sich intelligente Komponenten nachhaltig in Systeme einbetten lassen. Genau an dieser Stelle setzt die tech:lounge Live! 2026 an.
Die zweite Runde
Weiterlesen nach der Anzeige
Im vergangenen Jahr hat die the native web GmbH zum ersten Mal die tech:lounge Live! veranstaltet, eine eintägige Konferenz in Freiburg im Breisgau. Das Feedback war äußerst positiv, und besonders der intensive Austausch in kleinem Kreis wurde immer wieder hervorgehoben.
Am 24. April 2026 geht die tech:lounge Live! daher in die zweite Runde, diesmal mit einem neuen Schwerpunkt: dem Zusammenspiel von Softwarearchitektur, Data Science und künstlicher Intelligenz. Sechs Referentinnen und Referenten beleuchten das Thema aus unterschiedlichen Perspektiven. Die Vorträge bauen aufeinander auf und fügen sich zu einem Gesamtbild.
Das Programm
Den Auftakt um 9 Uhr bildet eine Keynote von Golo Roden (the native web GmbH) unter dem Titel „Warum wir Software neu denken müssen“. Sie beleuchtet die grundlegenden Veränderungen, die der Paradigmenwechsel hin zu datengetriebener Software mit sich bringt, und setzt den thematischen Rahmen für den Tag.
Anschließend geht es um „Architektur im datengetriebenen Zeitalter“, ebenfalls mit Golo Roden. Der Vortrag zeigt, wie sich Architekturen verändern, wenn Datenflüsse und deren Qualität ins Zentrum der Entscheidungen rücken, und welche Prinzipien Architekturen zukunftsfähig halten.
Nach der ersten Kaffeepause widmet sich Johannes Fröhlich (SICK AG) dem Thema „Daten als APIs: Vom Datensilo zum Produkt“. Er zeigt, wie ein Data Mesh die Perspektive auf Daten verändert und was es bedeutet, wenn Daten als Schnittstellen gedacht und wie Produkte gestaltet werden.
Vor der Mittagspause entzaubert Alexandra Kirsch (Alex Kirsch IT GmbH) in „Warum Machine Learning keine Magie ist“ die vermeintliche Blackbox. Sie legt offen, wie Statistik, Wahrscheinlichkeiten und Zufall die eigentliche Grundlage bilden, und schafft ein Fundament, das hilft, Machine Learning kritisch einzuordnen.
Am Nachmittag zeigt Niklas Goby (BadenCampus) in „KI in der Praxis: Vom Modell zur Anwendung“, wie der Schritt vom trainierten Modell zur produktiven Anwendung gelingt. Anhand praktischer Beispiele beleuchtet er Best Practices, typische Stolperfallen und die Rolle der Entwicklerinnen und Entwickler bei diesem Übergang.
Felix Leber (Jung von Matt NECKAR) blickt in „Next Generation Software Engineering“ auf die veränderte Rolle derjenigen, die moderne Systeme bauen. Welche Fähigkeiten und Denkweisen sind erforderlich, wenn klassisches Coding allein nicht mehr ausreicht?
Nach der zweiten Kaffeepause liefert Matthias Grünewald (Syna GmbH) mit „Intelligente Systeme nachhaltig denken“ einen strategischen Ausblick. Er diskutiert, wie intelligente Systeme langfristig tragfähig gestaltet werden können und welche Leitplanken dafür entscheidend sind.
Den Abschluss bildet die Closing-Session „Wider den Hype“, die die Fäden des Tages zusammenzieht und einordnet, was bleibt, was sich verändert und wie Entwicklerinnen und Entwickler die Zukunft aktiv gestalten können.
Freiburg, Lokhalle, 100 Plätze
Veranstaltungsort ist die Lokhalle in Freiburg im Breisgau, eine denkmalgeschützte Industriehalle im Güterbahnhof-Areal mit hohen Decken, viel Licht und industriellem Charme. Die Lokhalle liegt in der Nähe des Hauptbahnhofs und ist von dort gut mit der Straßenbahn erreichbar. Freiburg selbst ist mit dem ICE aus allen großen deutschen Städten erreichbar.
Von 9 bis 18 Uhr erwartet die Teilnehmerinnen und Teilnehmer ein kompaktes Programm mit Verpflegung über den gesamten Tag. Die Pausen sind bewusst großzügig bemessen, denn ein wesentlicher Teil des Wertes einer solchen Veranstaltung entsteht zwischen den Teilnehmerinnen und Teilnehmern, nicht nur auf der Bühne. Maximal 100 Plätze sorgen dafür, dass echte Gespräche möglich sind. Wer im vergangenen Jahr dabei war, weiß, wie wertvoll gerade dieser persönliche Rahmen ist.
Ein Ticket kostet 499 Euro zuzüglich 19 Prozent Umsatzsteuer und kann ab sofort auf der Website der tech:lounge Live! 2026 gebucht werden.
(rme)
Entwicklung & Code
OpenAI: Neue Audio-Modelle für Echtzeit-KI-Support
Künstliche Intelligenz wird in Zukunft immer häufiger am anderen Ende der Leitung sein, wenn Menschen eine Supporthotline anrufen oder in einer App Unterstützung suchen. Mit drei neuen Audio-Modellen, die per Entwicklerschnittstelle (API) zur Verfügung stehen, will OpenAI jetzt deren Qualität auf eine neue Stufe stellen. Konkret hat das US-amerikanische KI-Unternehmen die Modelle GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper vorgestellt.
Weiterlesen nach der Anzeige
Wie die Namen schon erahnen lassen, geht es um einen Dreiklang an Funktionen: GPT-Realtime-2 soll Echtzeit-Gespräche zwischen Maschine und Mensch ermöglichen, GPT-Realtime-Translate kommt in der Mensch-zu-Mensch-Kommunikation als Übersetzer und GPT-Realtime-Whisper zur Transkribierung von Mensch zu Maschine zum Einsatz. GPT-Realtime-2 ist überdies das erste Sprachmodell mit GPT-5-Reasoning in Echtzeit. OpenAI hat zuletzt auch GPT-5.5 als agentisches Arbeitsmodell vorgestellt, das Aufgaben selbstständig planen und über längere Zeiträume konsistent bearbeiten soll.
KI-Modell wird gesprächiger
In Praxisvideos zur Ankündigung zeigt OpenAI die Modelle im Einsatz. Ein Augenmerk liegt darauf, dass sich die KI besser in die menschliche Kommunikation einfügt. Da ist zum Beispiel eine Situation, wo jemand ein Mensch-KI-Gespräch unterbricht und die KI angewiesen wird, für den Moment abzuwarten. Auch die Rückmeldungen der KI kommen menschlicher daher: sei es, wie Zahlen- und Buchstabenfolgen ausgesprochen werden oder bei der Live-Übersetzung, dass die KI jeweils abwartet, bis sie genug gehört hat, um sinnhaft übersetzen zu können. Zudem sollen Probleme besser kommuniziert werden, anstatt die Kommunikation einfach stillschweigend scheitern zu lassen.
Das Kontextfenster von GPT-Realtime-2 wurde gegenüber dem Vorgängermodell GPT-Realtime-1.5 von 32.000 auf 128.000 Token erweitert. Reasoning-Stufen sind einstellbar: von minimal bis sehr hoch, im Standard ist es auf niedrig eingestellt. Auch sind parallele Aufrufe von Tools möglich, sodass das Modell im laufenden Gespräch parallel mehrere externe Dienste abfragen kann. OpenAI wirbt zudem mit einem deutlich besseren Abschneiden bei Benchmarks, etwa bei Big Bench Audio von 81,4 auf 96,6 Prozent im Vergleich zu GPT-Realtime-1.5. Beim allgemeinen Release der Realtime API im vergangenen Jahr hatte das Vorgängermodell diesen Benchmark gegenüber der Beta-Version bereits von rund 65 auf über 82 Prozent verbessert.
GPT-Realtime-Translate unterstützt über 70 Eingangssprachen und kann in 13 Sprachen übersetzen. Die Deutsche Telekom testet das Modell laut OpenAI bereits, um es im mehrsprachigen Kundensupport einzusetzen. Die Kosten für Entwickler betragen 0,034 US-Dollar pro Minute Nutzung.
Preise bleiben gleich
Weiterlesen nach der Anzeige
GPT-Realtime-Whisper soll Live-Transkription mit sehr niedriger Latenz ermöglichen. Typische Einsatzbereiche sind Untertitel in Meetings oder bei Streams, Kundensupport, medizinische Anwendungen und der Handel. Die Kosten betragen 0,017 US-Dollar pro Minute.
Alle drei Modelle stehen ab sofort über die Realtime API zur Verfügung. Die neuen Modelle reihen sich in OpenAIs jüngste Strategie spezialisierter KI-Modelle ein: Neben der Sprachverarbeitung hat das Unternehmen zuletzt auch GPT-Rosalind für die Biologieforschung vorgestellt, das auf Wirkstoffentdeckung und Genomik zugeschnitten ist. Die Nutzung von GPT-Realtime-2 kostet für den Input 32 US-Dollar pro Million Token (0,40 US-Dollar für gecachte Token) sowie 64 US-Dollar pro Million Token im Output. Damit bleiben die Preise gegenüber dem Vorgängermodell unverändert. Für europäische Entwickler relevant: Die Realtime API unterstützt EU Data Residency, sodass Anfragen und Antworten in der EU verarbeitet und nicht auf OpenAIs Servern gespeichert werden – allerdings mit einem Vorbehalt: Das Tracing, also die Nachverfolgung von API-Aufrufen zu Debugging-Zwecken, ist derzeit noch nicht EU-Data-Residency-konform.
(mki)
Entwicklung & Code
Atlassian: KI-Agenten übernehmen die Routinearbeit
Atlassian hat auf seiner Hauskonferenz Team ’26 mehrere neue Funktionen vorgestellt, die KI-Agenten stärker in die tägliche Zusammenarbeit von Anwendern einbinden sollen. Im Mittelpunkt stehen der Ausbau des Teamwork Graph als unternehmensweite Kontextschicht sowie die Weiterentwicklung der KI-Plattform Rovo. Deren Agenten sollen Aufgaben künftig nicht nur unterstützen, sondern eigenständig planen und ausführen.
Weiterlesen nach der Anzeige
Atlassian entwickelt Werkzeuge für Zusammenarbeit und Softwareentwicklung. Hierzu zählen Jira, Confluence und Loom. Alle diese Tools sollen Aufgaben, Wissen und Kommunikation in Teams zusammenführen.
Teamwork Graph öffnet sich für externe Agenten
Eine zentrale Rolle spielt der Teamwork Graph. Er bildet Beziehungen zwischen Aufgaben, Dokumenten, Personen und Systemen ab und liefert KI-Agenten den nötigen Kontext. Neu ist, dass dieser Kontext nicht mehr nur innerhalb der Atlassian-Produkte zur Verfügung steht. Über ein neues Kommandozeilentool – das sich aktuell in einer Open Beta befindet – greifen Entwickler direkt im Terminal auf den Graph zu. Zusätzlich stellt Atlassian Schnittstellen über das Model Context Protocol (MCP) bereit, sodass auch externe Agenten und Copiloten die Daten nutzen können. KI-Systeme können damit Zusammenhänge wie Verantwortlichkeiten, Abhängigkeiten oder frühere Entscheidungen einbeziehen, statt isolierte Abfragen zu beantworten. Ein Agent kann so zum Beispiel ermitteln, welche Incidents mit einem bestimmten Deployment zusammenhängen und wer für deren Behebung zuständig ist.
Parallel baut Atlassian Rovo – ein KI-gestütztes Such- und Wissensermittlungstool – aus und entwickelt es von einem reinen Assistenzwerkzeug zu einem Tool für agentisches Arbeiten weiter. KI-Agenten sollen komplexe, mehrstufige Aufgaben eigenständig zerlegen, planen und ausführen. Der bereits angekündigte Reasoning-Modus „Max“ in Rovo Chat soll künftig solche Abläufe über mehrere Werkzeuge hinweg orchestrieren. Ein Beispiel für den Praxiseinsatz wäre ein Quartalsbericht, für den ein Agent Daten aus verschiedenen Quellen zusammenführt, aufbereitet und fehlende Informationen kennzeichnet.
KI-Agenten rücken in bestehende Workflows
KI-Agenten rücken zudem näher an bestehende Arbeitsabläufe. In Jira lassen sich Aufgaben nun gezielt an Agenten zuweisen (genannt Agents in Jira, bereits allgemein verfügbar), die diese eigenständig bearbeiten oder vorbereiten. In Confluence überführt die Funktion Remix Inhalte in andere Formate wie Präsentationen oder Diagramme, ohne dass Anwender die Umgebung verlassen müssen. Loom wandelt Videoanleitungen in strukturierte Aufgaben um, die sich beispielsweise als Jira-Tickets weiterverarbeiten lassen. Punktuelle KI-Abfragen sollen damit einer dauerhaft eingebetteten Automatisierung weichen.
Mit Rovo Studio bietet Atlassian zudem eine No-Code-Plattform, auf der Anwender eigene Agenten, Automatisierungen und Anwendungen erstellen. Sie setzt auf dem Teamwork Graph auf und richtet sich ausdrücklich nicht nur an Entwickler. Workflows lassen sich ereignisbasiert definieren und mit Funktionen wie Rollenmodellen, Freigaben und Versionierung absichern. Ein Beispiel wäre ein Onboarding-Prozess, bei dem ein Agent automatisch Konten anlegt, Dokumente bereitstellt und Aufgaben verteilt, sobald ein neuer Mitarbeiter im System erfasst ist.
Weiterlesen nach der Anzeige
Mehr Transparenz für Entwicklungsteams
Speziell für Softwareentwickler erweitert Atlassian sein Angebot im Bereich Developer Experience (DX). Neue Funktionen wie „Agent Experience“, „AI Code Insights“ und „AI Pulse“ sollen Transparenz über den KI-Einsatz im Entwicklungsprozess schaffen. Damit lässt sich nachvollziehen, welcher Anteil des Codes von KI stammt, wie Agenten in Workflows eingebunden sind und wie sich das auf Produktivität und Qualität auswirkt.
Mit der Product Collection kündigt Atlassian außerdem eine neue Produktreihe für das Produktmanagement an. Sie erweitert bestehende Werkzeuge wie Jira Product Discovery und soll den gesamten Prozess von der Sammlung von Kundenfeedback über die Priorisierung bis zur Umsetzung und Erfolgsmessung abdecken.
Neu sind zudem die Dia Reports, wobei es sich um browserbasierte Briefings handelt, die Informationen aus dem Teamwork Graph mit Daten aus typischen Arbeitswerkzeugen wie Kalendern oder Kommunikationsplattformen verbinden. So entstehen etwa automatisch generierte Tageszusammenfassungen, die offene Aufgaben, relevante Diskussionen und anstehende Termine bündeln.
Mehr Details zu allen neuen Funktionen finden sich im Atlassian-Blog.
Lesen Sie auch
(fo)
Entwicklung & Code
Neu in .NET 10.0 [22]: SDK-Werkzeugerweiterungen direkt starten
Werkzeugerweiterungen für das .NET-SDK-Kommandozeilenwerkzeug dotnet.exe (bzw. dotnet) musste man bisher lokal in einem Projekt von NuGet installieren, beispielsweise:
Weiterlesen nach der Anzeige
dotnet tool install dotnet-runtimeinfo

Dr. Holger Schwichtenberg ist technischer Leiter des Expertennetzwerks www.IT-Visions.de, das mit 53 renommierten Experten zahlreiche mittlere und große Unternehmen durch Beratungen und Schulungen sowie bei der Softwareentwicklung unterstützt. Durch seine Auftritte auf zahlreichen nationalen und internationalen Fachkonferenzen sowie mehr als 90 Fachbücher und mehr als 1500 Fachartikel gehört Holger Schwichtenberg zu den bekanntesten Experten für .NET und Webtechniken in Deutschland.
oder global installieren:
dotnet tool install -g dotnet-runtimeinfo
bevor eine Ausführung mit
dotnet-runtimeinfo
möglich war.
Weiterlesen nach der Anzeige
Seit .NET 10.0 können Entwicklerinnen und Entwickler ein solches Werkzeug herunterladen und einmalig ausführen, ohne es lokal zu speichern. Dafür gibt es den neuen Befehl dotnet tool exec. So funktioniert beispielsweise
dotnet tool exec dotnet-runtimeinfo
Dabei kommt es vor der erstmaligen Ausführung zu einer Nachfrage, ob man das Werkzeug wirklich starten will (siehe Abbildung 1). Diese Nachfrage kann man vorab mit „Ja“ beantworten, indem man -y oder --yes angibt:
dotnet tool exec dotnet-runtimeinfo -y
Zudem kann man dotnet tool exec mit dnx abkürzen:
dnx dotnet-runtimeinfo -y

dotnet tool exec fragt zur Sicherheit vor der Ausführung nach (Abb. 1).
Wer schon länger dabei ist, wird sich erinnern, dass es in den Anfangstagen von .NET Core bereits ein Werkzeug namens dnx.exe gab, das später in dotnet.exe umbenannt wurde. Microsoft hält sich in den Release Notes zu .NET 10.0 Preview 6 offen, den Namen dnx in Zukunft wieder stärker einzusetzen: „The actual implementation of the dnx command is in the dotnet CLI itself, so we can evolve its behavior over time. Today it runs tools, but who knows what the future may hold.“
(rme)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
