Entwicklung & Code
OpenAI: Neue Audio-Modelle für Echtzeit-KI-Support
Künstliche Intelligenz wird in Zukunft immer häufiger am anderen Ende der Leitung sein, wenn Menschen eine Supporthotline anrufen oder in einer App Unterstützung suchen. Mit drei neuen Audio-Modellen, die per Entwicklerschnittstelle (API) zur Verfügung stehen, will OpenAI jetzt deren Qualität auf eine neue Stufe stellen. Konkret hat das US-amerikanische KI-Unternehmen die Modelle GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper vorgestellt.
Weiterlesen nach der Anzeige
Wie die Namen schon erahnen lassen, geht es um einen Dreiklang an Funktionen: GPT-Realtime-2 soll Echtzeit-Gespräche zwischen Maschine und Mensch ermöglichen, GPT-Realtime-Translate kommt in der Mensch-zu-Mensch-Kommunikation als Übersetzer und GPT-Realtime-Whisper zur Transkribierung von Mensch zu Maschine zum Einsatz. GPT-Realtime-2 ist überdies das erste Sprachmodell mit GPT-5-Reasoning in Echtzeit. OpenAI hat zuletzt auch GPT-5.5 als agentisches Arbeitsmodell vorgestellt, das Aufgaben selbstständig planen und über längere Zeiträume konsistent bearbeiten soll.
KI-Modell wird gesprächiger
In Praxisvideos zur Ankündigung zeigt OpenAI die Modelle im Einsatz. Ein Augenmerk liegt darauf, dass sich die KI besser in die menschliche Kommunikation einfügt. Da ist zum Beispiel eine Situation, wo jemand ein Mensch-KI-Gespräch unterbricht und die KI angewiesen wird, für den Moment abzuwarten. Auch die Rückmeldungen der KI kommen menschlicher daher: sei es, wie Zahlen- und Buchstabenfolgen ausgesprochen werden oder bei der Live-Übersetzung, dass die KI jeweils abwartet, bis sie genug gehört hat, um sinnhaft übersetzen zu können. Zudem sollen Probleme besser kommuniziert werden, anstatt die Kommunikation einfach stillschweigend scheitern zu lassen.
Das Kontextfenster von GPT-Realtime-2 wurde gegenüber dem Vorgängermodell GPT-Realtime-1.5 von 32.000 auf 128.000 Token erweitert. Reasoning-Stufen sind einstellbar: von minimal bis sehr hoch, im Standard ist es auf niedrig eingestellt. Auch sind parallele Aufrufe von Tools möglich, sodass das Modell im laufenden Gespräch parallel mehrere externe Dienste abfragen kann. OpenAI wirbt zudem mit einem deutlich besseren Abschneiden bei Benchmarks, etwa bei Big Bench Audio von 81,4 auf 96,6 Prozent im Vergleich zu GPT-Realtime-1.5. Beim allgemeinen Release der Realtime API im vergangenen Jahr hatte das Vorgängermodell diesen Benchmark gegenüber der Beta-Version bereits von rund 65 auf über 82 Prozent verbessert.
GPT-Realtime-Translate unterstützt über 70 Eingangssprachen und kann in 13 Sprachen übersetzen. Die Deutsche Telekom testet das Modell laut OpenAI bereits, um es im mehrsprachigen Kundensupport einzusetzen. Die Kosten für Entwickler betragen 0,034 US-Dollar pro Minute Nutzung.
Preise bleiben gleich
Weiterlesen nach der Anzeige
GPT-Realtime-Whisper soll Live-Transkription mit sehr niedriger Latenz ermöglichen. Typische Einsatzbereiche sind Untertitel in Meetings oder bei Streams, Kundensupport, medizinische Anwendungen und der Handel. Die Kosten betragen 0,017 US-Dollar pro Minute.
Alle drei Modelle stehen ab sofort über die Realtime API zur Verfügung. Die neuen Modelle reihen sich in OpenAIs jüngste Strategie spezialisierter KI-Modelle ein: Neben der Sprachverarbeitung hat das Unternehmen zuletzt auch GPT-Rosalind für die Biologieforschung vorgestellt, das auf Wirkstoffentdeckung und Genomik zugeschnitten ist. Die Nutzung von GPT-Realtime-2 kostet für den Input 32 US-Dollar pro Million Token (0,40 US-Dollar für gecachte Token) sowie 64 US-Dollar pro Million Token im Output. Damit bleiben die Preise gegenüber dem Vorgängermodell unverändert. Für europäische Entwickler relevant: Die Realtime API unterstützt EU Data Residency, sodass Anfragen und Antworten in der EU verarbeitet und nicht auf OpenAIs Servern gespeichert werden – allerdings mit einem Vorbehalt: Das Tracing, also die Nachverfolgung von API-Aufrufen zu Debugging-Zwecken, ist derzeit noch nicht EU-Data-Residency-konform.
(mki)
Entwicklung & Code
Atlassian: KI-Agenten übernehmen die Routinearbeit
Atlassian hat auf seiner Hauskonferenz Team ’26 mehrere neue Funktionen vorgestellt, die KI-Agenten stärker in die tägliche Zusammenarbeit von Anwendern einbinden sollen. Im Mittelpunkt stehen der Ausbau des Teamwork Graph als unternehmensweite Kontextschicht sowie die Weiterentwicklung der KI-Plattform Rovo. Deren Agenten sollen Aufgaben künftig nicht nur unterstützen, sondern eigenständig planen und ausführen.
Weiterlesen nach der Anzeige
Atlassian entwickelt Werkzeuge für Zusammenarbeit und Softwareentwicklung. Hierzu zählen Jira, Confluence und Loom. Alle diese Tools sollen Aufgaben, Wissen und Kommunikation in Teams zusammenführen.
Teamwork Graph öffnet sich für externe Agenten
Eine zentrale Rolle spielt der Teamwork Graph. Er bildet Beziehungen zwischen Aufgaben, Dokumenten, Personen und Systemen ab und liefert KI-Agenten den nötigen Kontext. Neu ist, dass dieser Kontext nicht mehr nur innerhalb der Atlassian-Produkte zur Verfügung steht. Über ein neues Kommandozeilentool – das sich aktuell in einer Open Beta befindet – greifen Entwickler direkt im Terminal auf den Graph zu. Zusätzlich stellt Atlassian Schnittstellen über das Model Context Protocol (MCP) bereit, sodass auch externe Agenten und Copiloten die Daten nutzen können. KI-Systeme können damit Zusammenhänge wie Verantwortlichkeiten, Abhängigkeiten oder frühere Entscheidungen einbeziehen, statt isolierte Abfragen zu beantworten. Ein Agent kann so zum Beispiel ermitteln, welche Incidents mit einem bestimmten Deployment zusammenhängen und wer für deren Behebung zuständig ist.
Parallel baut Atlassian Rovo – ein KI-gestütztes Such- und Wissensermittlungstool – aus und entwickelt es von einem reinen Assistenzwerkzeug zu einem Tool für agentisches Arbeiten weiter. KI-Agenten sollen komplexe, mehrstufige Aufgaben eigenständig zerlegen, planen und ausführen. Der bereits angekündigte Reasoning-Modus „Max“ in Rovo Chat soll künftig solche Abläufe über mehrere Werkzeuge hinweg orchestrieren. Ein Beispiel für den Praxiseinsatz wäre ein Quartalsbericht, für den ein Agent Daten aus verschiedenen Quellen zusammenführt, aufbereitet und fehlende Informationen kennzeichnet.
KI-Agenten rücken in bestehende Workflows
KI-Agenten rücken zudem näher an bestehende Arbeitsabläufe. In Jira lassen sich Aufgaben nun gezielt an Agenten zuweisen (genannt Agents in Jira, bereits allgemein verfügbar), die diese eigenständig bearbeiten oder vorbereiten. In Confluence überführt die Funktion Remix Inhalte in andere Formate wie Präsentationen oder Diagramme, ohne dass Anwender die Umgebung verlassen müssen. Loom wandelt Videoanleitungen in strukturierte Aufgaben um, die sich beispielsweise als Jira-Tickets weiterverarbeiten lassen. Punktuelle KI-Abfragen sollen damit einer dauerhaft eingebetteten Automatisierung weichen.
Mit Rovo Studio bietet Atlassian zudem eine No-Code-Plattform, auf der Anwender eigene Agenten, Automatisierungen und Anwendungen erstellen. Sie setzt auf dem Teamwork Graph auf und richtet sich ausdrücklich nicht nur an Entwickler. Workflows lassen sich ereignisbasiert definieren und mit Funktionen wie Rollenmodellen, Freigaben und Versionierung absichern. Ein Beispiel wäre ein Onboarding-Prozess, bei dem ein Agent automatisch Konten anlegt, Dokumente bereitstellt und Aufgaben verteilt, sobald ein neuer Mitarbeiter im System erfasst ist.
Weiterlesen nach der Anzeige
Mehr Transparenz für Entwicklungsteams
Speziell für Softwareentwickler erweitert Atlassian sein Angebot im Bereich Developer Experience (DX). Neue Funktionen wie „Agent Experience“, „AI Code Insights“ und „AI Pulse“ sollen Transparenz über den KI-Einsatz im Entwicklungsprozess schaffen. Damit lässt sich nachvollziehen, welcher Anteil des Codes von KI stammt, wie Agenten in Workflows eingebunden sind und wie sich das auf Produktivität und Qualität auswirkt.
Mit der Product Collection kündigt Atlassian außerdem eine neue Produktreihe für das Produktmanagement an. Sie erweitert bestehende Werkzeuge wie Jira Product Discovery und soll den gesamten Prozess von der Sammlung von Kundenfeedback über die Priorisierung bis zur Umsetzung und Erfolgsmessung abdecken.
Neu sind zudem die Dia Reports, wobei es sich um browserbasierte Briefings handelt, die Informationen aus dem Teamwork Graph mit Daten aus typischen Arbeitswerkzeugen wie Kalendern oder Kommunikationsplattformen verbinden. So entstehen etwa automatisch generierte Tageszusammenfassungen, die offene Aufgaben, relevante Diskussionen und anstehende Termine bündeln.
Mehr Details zu allen neuen Funktionen finden sich im Atlassian-Blog.
Lesen Sie auch
(fo)
Entwicklung & Code
Neu in .NET 10.0 [22]: SDK-Werkzeugerweiterungen direkt starten
Werkzeugerweiterungen für das .NET-SDK-Kommandozeilenwerkzeug dotnet.exe (bzw. dotnet) musste man bisher lokal in einem Projekt von NuGet installieren, beispielsweise:
Weiterlesen nach der Anzeige
dotnet tool install dotnet-runtimeinfo

Dr. Holger Schwichtenberg ist technischer Leiter des Expertennetzwerks www.IT-Visions.de, das mit 53 renommierten Experten zahlreiche mittlere und große Unternehmen durch Beratungen und Schulungen sowie bei der Softwareentwicklung unterstützt. Durch seine Auftritte auf zahlreichen nationalen und internationalen Fachkonferenzen sowie mehr als 90 Fachbücher und mehr als 1500 Fachartikel gehört Holger Schwichtenberg zu den bekanntesten Experten für .NET und Webtechniken in Deutschland.
oder global installieren:
dotnet tool install -g dotnet-runtimeinfo
bevor eine Ausführung mit
dotnet-runtimeinfo
möglich war.
Weiterlesen nach der Anzeige
Seit .NET 10.0 können Entwicklerinnen und Entwickler ein solches Werkzeug herunterladen und einmalig ausführen, ohne es lokal zu speichern. Dafür gibt es den neuen Befehl dotnet tool exec. So funktioniert beispielsweise
dotnet tool exec dotnet-runtimeinfo
Dabei kommt es vor der erstmaligen Ausführung zu einer Nachfrage, ob man das Werkzeug wirklich starten will (siehe Abbildung 1). Diese Nachfrage kann man vorab mit „Ja“ beantworten, indem man -y oder --yes angibt:
dotnet tool exec dotnet-runtimeinfo -y
Zudem kann man dotnet tool exec mit dnx abkürzen:
dnx dotnet-runtimeinfo -y

dotnet tool exec fragt zur Sicherheit vor der Ausführung nach (Abb. 1).
Wer schon länger dabei ist, wird sich erinnern, dass es in den Anfangstagen von .NET Core bereits ein Werkzeug namens dnx.exe gab, das später in dotnet.exe umbenannt wurde. Microsoft hält sich in den Release Notes zu .NET 10.0 Preview 6 offen, den Namen dnx in Zukunft wieder stärker einzusetzen: „The actual implementation of the dnx command is in the dotnet CLI itself, so we can evolve its behavior over time. Today it runs tools, but who knows what the future may hold.“
(rme)
Entwicklung & Code
Datenbank Dolt 2.0: Branches und Commits für SQL-Daten
Mit Dolt 2.0 ändert sich vieles an der Storage-Engine der versionierten SQL-Datenbank. Mehrere zentrale Funktionen sind nun erstmals standardmäßig aktiv: eine automatische Garbage Collection und ein neues Archivformat für historische Daten. Hinzu kommen ein Beta-Support für Vektordaten sowie ein neues Verfahren namens Adaptive Storage für Datentypen wie JSON oder BLOBs. Laut den Entwicklern erreicht Dolt zudem inzwischen bessere Sysbench-Werte als MySQL.
Weiterlesen nach der Anzeige
Das Open-Source-Projekt Dolt ist eine relationale Datenbank mit einer Versionsverwaltung nach Vorbild von Git. Entwickler können Datenbanken committen, branchen, mergen und Unterschiede zwischen Datenständen vergleichen. Technisch kombiniert das Projekt eine MySQL-kompatible SQL-Schicht mit einer eigenen versionierten Storage-Engine. Eingesetzt wird Dolt unter anderem für kollaborative Datenpflege, reproduzierbare Datensätze, Auditing oder Data-Engineering-Workflows.
Automatische Aufräumarbeiten
Die nun standardmäßig aktive Garbage Collection entfernt nicht mehr referenzierte Datenblöcke im Hintergrund und soll vor allem den Betrieb großer oder stark verzweigter Datenbanken vereinfachen. Gerade bei versionierten Datenbanken wächst der Speicherbedarf schnell, da Dolt jede Änderung historisiert. Bislang mussten Administratoren die Bereinigung häufig manuell oder per geplantem Job anstoßen. Eine Online Garbage Collection, die auch im laufenden Betrieb arbeitet, hatte das Projekt bereits zuvor eingeführt.
Ebenfalls standardmäßig aktiv ist das neue Archivformat. Es speichert historische Datenstände kompakter und reduziert so den Speicherbedarf. Während der Entwicklung hatte das Projekt Einsparungen von bis zu 50 Prozent genannt. Das Format zielt vor allem auf Datenbanken mit vielen Snapshots oder langen Änderungshistorien und soll langfristige Archivierung sowie Cold-Storage-Szenarien erleichtern.
Schneller als MySQL
Bei der Performance verweist DoltHub auf eigene Sysbench-Ergebnisse, in denen Dolt insgesamt leicht vor MySQL liegt. Sysbench ist ein verbreitetes Benchmark-Werkzeug für OLTP-Workloads und misst typische Datenbankoperationen wie Inserts, Updates und Reads. Laut Dokumentation schneidet Dolt bei Schreiboperationen rund 10 Prozent schneller ab als MySQL, während Lesezugriffe mit rund 5 Prozent noch etwas langsamer ausfallen. Performance galt bislang als eine der größten Hürden versionierter Datenbanken.
Weiterlesen nach der Anzeige
Neu ist außerdem der Beta-Support für Vektordaten. Dabei handelt es sich um numerische Embeddings, wie sie etwa KI-Anwendungen für semantische Suche oder Retrieval-Systeme nutzen. Vergleichbare Funktionen bieten inzwischen auch PostgreSQL-Erweiterungen wie pgvector oder spezialisierte Vektordatenbanken. Die Release Notes sprechen allerdings ausdrücklich noch von einem Beta-Status.
Adaptive Speicherung großer Werte
Mit Adaptive Storage führt Dolt zudem eine neue Speicherstrategie für die Typen TEXT, JSON, GEOMETRY und BLOB ein. Große Inhalte kodiert die Engine dynamisch anders oder lagert sie aus. Die Entwickler vergleichen den Mechanismus mit TOAST aus PostgreSQL, das große Werte ebenfalls automatisch außerhalb der eigentlichen Tabellenzeilen ablegt. Ziel sind ein geringerer Speicherverbrauch und effizientere I/O-Zugriffe, etwa bei umfangreichen JSON-Dokumenten oder Binärdaten.
Details zu allen Änderungen finden sich in den Release Notes auf GitHub. Dolt 2.0 bleibt nach Angaben der Entwickler grundsätzlich kompatibel zu 1.x-Datenbanken. Allerdings lassen sich nicht alle mit 2.x erzeugten Datenbanken auch mit älteren 1.x-Clients lesen. Wer gemischte Deployments betreibt oder Rollbacks einplant, sollte das bei der Migration berücksichtigen.
(fo)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
