Connect with us

Entwicklung & Code

Super Productivity 18.0: Aufgaben automatisieren statt Handarbeit


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Aufgabenverwaltung Super Productivity bringt in Version 18.0 ein regelbasiertes Automationssystem, konfigurierbare Issue-Provider, Deadline-Funktionen und Sicherheitsverbesserungen in der Electron-Basis. Das Open-Source-Projekt erscheint für Linux, macOS, Windows, Android und iOS.

Weiterlesen nach der Anzeige

Kern der neuen Version ist ein Automationssystem. Nutzer definieren Regeln, die bei bestimmten Auslösern automatisch Aktionen ausführen. Die Regeln unterstützen Titelabgleiche per Regex sowie eine Bedingung für Titelpräfixe („Titel beginnt mit“). Regex (Regular Expressions) sind musterbasierte Suchausdrücke, mit denen sich Titel präziser erfassen lassen als mit einfachen Textfiltern. Damit lassen sich typische Triage- oder Inbox-Abläufe automatisieren.

Die Anbindung an externe Systeme wie Jira, GitHub oder GitLab wird flexibler. Super Productivity erlaubt jetzt, das Polling-Intervall zu konfigurieren – also festzulegen, wie oft die App entfernte Dienste nach Änderungen abfragt. Importierte Vorgänge erhalten auf Wunsch automatisch Standard-Tags und Standard-Notizen. Neu sind außerdem eine Zwei-Wege-Feldsynchronisation und Erweiterungen unterstützen nun auch das Löschen entfernter Issues. Der Google-Calendar-Provider wird nun als mitgeliefertes Plugin eingebunden.

Aufgaben in der Task-Ansicht lassen sich jetzt nach Fälligkeit sortieren, gruppieren und filtern. Die Ansicht unterscheidet dabei Zeitfenster wie „heute“, „morgen“ oder „diese Woche“. Beim Ziehen einer Aufgabe in den Kalender zeigt eine Vorschau, wie lang der geplante Zeitblock wird. Unteraufgaben heben sich in Suchergebnissen visuell stärker ab.

Die Mobilversionen bekommen unter anderem ein Rechtswischen zum Abhaken, touchfreundlichere Kontextmenüs und vertikal begrenztes Drag-and-drop auf kleinen Displays. Android zeigt jetzt auch Erinnerungen aus der Hintergrundsynchronisation an.

Sicherheitsrelevant: Für Google-OAuth nutzt die App auf Mobilgeräten nun den Systembrowser statt einer eingebetteten WebView. Das entspricht der Empfehlung aus RFC 8252 für native Apps – ein externer Browser trennt Cookies und Seiteninhalt von der App. Google blockiert OAuth-Anfragen aus eingebetteten WebViews ohnehin.

Weiterlesen nach der Anzeige

Auf dem Desktop aktiviert Super Productivity die webSecurity in Electron wieder und ergänzt einen Permission-Handler. Das ist kein kosmetischer Eingriff: Ohne webSecurity fällt die Same-Origin-Policy, und die App kann unsichere Inhalte domänenübergreifend ausführen. Electrons eigene Sicherheitsdokumentation warnt ausdrücklich davor, diese Einstellung in Produktionsanwendungen abzuschalten.

Das Preload-Skript wird nun mit esbuild gebündelt, was die Nutzung des Electron-Sandbox-Modus erleichtert. In sandboxierten Renderern gibt es keine vollständige Node.js-Umgebung; privilegierte Aufgaben laufen über IPC zum Hauptprozess. Preload-Skripte behalten dabei nur einen begrenzten Satz an Node- und Electron-APIs. Das verkleinert die Angriffsfläche.

Mehrere Sync-Fehler haben die Entwickler ebenfalls behoben: ein falscher „in sync“-Status bei Fehlern, der Verlust von Auth-Daten nach temporären Serverproblemen und Abstürze der Markdown-Synchronisation beim Anlegen von Unteraufgaben während einer Sync-Oszillation. Die Sync-Server-Bereitstellung validiert jetzt Caddyfile und Container.

Ferner bringt Version 18.0 ein minimalistisches Zen-Theme, ein überarbeitetes Onboarding mit Preset-Auswahl und lokalisierten Beispielaufgaben, klickbare Links in Aufgabentiteln, Tastenkürzel für Fett- und Kursivschrift in Kommentaren sowie ein größenverstellbares Always-on-top-Overlay. An Community-Plugins kommen eine Obsidian-Integration und ein StudyForge-Leaderboard hinzu.

Unter der Haube aktualisiert das Projekt Angular und Capacitor, behebt Speicherlecks und validiert die Formate von dueDay und deadlineDay beim Schreiben, um falsche Überfällig-Anzeigen zu verhindern. Der CSV-Export für Arbeitsprotokolle verarbeitet jetzt auch chinesische Zeichen korrekt.

Alle Informationen zu Super Productivity 18.0 finden sich in den Release Notes auf GitHub.


(fo)



Source link

Entwicklung & Code

C++-Entwickler nutzen KI häufiger, bleiben aber skeptisch


C++-Programmiererinnen und -Programmierer setzen immer häufiger KI-Assistenten für ihre Projekte ein. Das hat die Standard C++ Foundation in ihrer jüngsten Umfrage festgestellt. Deutlich wurde aber auch: Das Misstrauen gegenüber künstlicher Intelligenz ist immer noch hoch.

Weiterlesen nach der Anzeige

Als Grund dafür geben 77,5 Prozent der Befragten an, dass KI fehlerhaften Output liefert, während knapp 70 Prozent den von künstlicher Intelligenz generierten Antworten generell kein Vertrauen entgegenbringen. Für rund 51 Prozent der Teilnehmenden leistet KI hinsichtlich Kontextverständnis zu wenig. Bedenken bezüglich Datensicherheit melden 49,5 Prozent an und für 37,4 Prozent ist der Einsatz von KI vor allem eine Kostenfrage.

Dennoch werden KI-Assistenten im C++-Umfeld deutlich häufiger eingesetzt als letztes Jahr, auch wenn in sämtlichen von der Umfrage berücksichtigten Programmier-Aufgabenbereichen weiterhin die „Nein“-Sager dominieren.


Umfrage: Der Einsatz von KI im C++-Programmierumfeld

Umfrage: Der Einsatz von KI im C++-Programmierumfeld

Die meisten Umfrage-Teilnehmer sprechen sich gegen den Einsatz von KI im C++-Umfeld aus.

(Bild: Standard C++ Foundation)

Beim Schreiben von Code greifen nun jedoch 39,1 Prozent der Befragten ein- bis mehrmals pro Woche zum KI-Tool, während es 2025 noch 30,9 Prozent waren. Beim Schreiben von Tests sind es 32,2 statt vormals 20 Prozent, beim Debugging steigt der Anteil auf 23,2 Prozent (2025: 11,5 %) und beim Ermitteln von Performance-Problemen hat sich der Anteil mit etwa 14 Prozent ebenfalls mehr als verdoppelt (2025: 6,0 %).

Mit 53,4 Prozent der Nennungen landet GitHub Copilot auf Platz eins der am häufigsten verwendeten codespezifischen KI-Assistenten. Es folgen Claude Code mit 44,2 Prozent und OpenAI Codex mit 14,3 Prozent. Unter den nicht-codespezifischen KI-Tools führen ChatGPT mit 53,4 Prozent und Google Gemini mit 39 Prozent. Kaum genutzt werden dort Grok (6,3 %) und Perplexity (4,2 %).

Weiterlesen nach der Anzeige

Laut Umfrage ordnen sich die meisten C++-Projekte den Kategorien Entwicklertools (26,1 %), Hardware/IoT (24,7 %), Gaming (23,5 %) sowie Utility-Apps (21,6 %) zu. Umgesetzt werden sie überwiegend mit CMake, das 81,9 Prozent der Befragten als bevorzugtes Build-Tool nennen. Ebenfalls hoch im Kurs stehen Ninja mit 46,2 Prozent, MSBuild mit 33,5 Prozent und Make/nmake mit 30,7 Prozent.

Bei den IDEs greifen rund 40 Prozent der Befragten zu Visual Studio Code, das mit dem Februar-Update neue Features für die KI-Agenten-Konfiguration erhielt. Als Compiler kommt überwiegend GCC zum Einsatz (53,1 %).

Danach gefragt, was sie an C++ ändern würden, nennen viele Teilnehmer unter anderem ein standardisiertes Paket- und Abhängigkeitsmanagement, kürzere Build-Zeiten, die Unterstützung von ABI- und Kompatibilitätsbrüchen sowie mehr Sicherheit durch strengere Defaults.

Die Umfrage der Standard C++ Foundation startete am 21. April dieses Jahres. Sie lief eine Woche lang und sammelte Feedback von 1434 Teilnehmerinnen und Teilnehmern, was einem Anstieg von 38 Prozent gegenüber 2025 entspricht (1036 Personen). Davon attestieren sich 80,6 Prozent eine C++-Programmiererfahrung von mindestens sechs Jahren. Mehr als zehn Jahre Erfahrung geben 60,5 Prozent an und bei fast 33 Prozent der Teilnehmer sind es mehr als 20 Jahre. Auf der Webseite der gemeinnützigen Stiftung steht die vollständige Umfrage mit vielen weiteren Details zum Download bereit.


(mro)



Source link

Weiterlesen

Entwicklung & Code

OpenAI: Neue Audio-Modelle für Echtzeit-KI-Support


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz wird in Zukunft immer häufiger am anderen Ende der Leitung sein, wenn Menschen eine Supporthotline anrufen oder in einer App Unterstützung suchen. Mit drei neuen Audio-Modellen, die per Entwicklerschnittstelle (API) zur Verfügung stehen, will OpenAI jetzt deren Qualität auf eine neue Stufe stellen. Konkret hat das US-amerikanische KI-Unternehmen die Modelle GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper vorgestellt.

Weiterlesen nach der Anzeige

Wie die Namen schon erahnen lassen, geht es um einen Dreiklang an Funktionen: GPT-Realtime-2 soll Echtzeit-Gespräche zwischen Maschine und Mensch ermöglichen, GPT-Realtime-Translate kommt in der Mensch-zu-Mensch-Kommunikation als Übersetzer und GPT-Realtime-Whisper zur Transkribierung von Mensch zu Maschine zum Einsatz. GPT-Realtime-2 ist überdies das erste Sprachmodell mit GPT-5-Reasoning in Echtzeit. OpenAI hat zuletzt auch GPT-5.5 als agentisches Arbeitsmodell vorgestellt, das Aufgaben selbstständig planen und über längere Zeiträume konsistent bearbeiten soll.

In Praxisvideos zur Ankündigung zeigt OpenAI die Modelle im Einsatz. Ein Augenmerk liegt darauf, dass sich die KI besser in die menschliche Kommunikation einfügt. Da ist zum Beispiel eine Situation, wo jemand ein Mensch-KI-Gespräch unterbricht und die KI angewiesen wird, für den Moment abzuwarten. Auch die Rückmeldungen der KI kommen menschlicher daher: sei es, wie Zahlen- und Buchstabenfolgen ausgesprochen werden oder bei der Live-Übersetzung, dass die KI jeweils abwartet, bis sie genug gehört hat, um sinnhaft übersetzen zu können. Zudem sollen Probleme besser kommuniziert werden, anstatt die Kommunikation einfach stillschweigend scheitern zu lassen.

Das Kontextfenster von GPT-Realtime-2 wurde gegenüber dem Vorgängermodell GPT-Realtime-1.5 von 32.000 auf 128.000 Token erweitert. Reasoning-Stufen sind einstellbar: von minimal bis sehr hoch, im Standard ist es auf niedrig eingestellt. Auch sind parallele Aufrufe von Tools möglich, sodass das Modell im laufenden Gespräch parallel mehrere externe Dienste abfragen kann. OpenAI wirbt zudem mit einem deutlich besseren Abschneiden bei Benchmarks, etwa bei Big Bench Audio von 81,4 auf 96,6 Prozent im Vergleich zu GPT-Realtime-1.5. Beim allgemeinen Release der Realtime API im vergangenen Jahr hatte das Vorgängermodell diesen Benchmark gegenüber der Beta-Version bereits von rund 65 auf über 82 Prozent verbessert.

GPT-Realtime-Translate unterstützt über 70 Eingangssprachen und kann in 13 Sprachen übersetzen. Die Deutsche Telekom testet das Modell laut OpenAI bereits, um es im mehrsprachigen Kundensupport einzusetzen. Die Kosten für Entwickler betragen 0,034 US-Dollar pro Minute Nutzung.

Weiterlesen nach der Anzeige

GPT-Realtime-Whisper soll Live-Transkription mit sehr niedriger Latenz ermöglichen. Typische Einsatzbereiche sind Untertitel in Meetings oder bei Streams, Kundensupport, medizinische Anwendungen und der Handel. Die Kosten betragen 0,017 US-Dollar pro Minute.

Alle drei Modelle stehen ab sofort über die Realtime API zur Verfügung. Die neuen Modelle reihen sich in OpenAIs jüngste Strategie spezialisierter KI-Modelle ein: Neben der Sprachverarbeitung hat das Unternehmen zuletzt auch GPT-Rosalind für die Biologieforschung vorgestellt, das auf Wirkstoffentdeckung und Genomik zugeschnitten ist. Die Nutzung von GPT-Realtime-2 kostet für den Input 32 US-Dollar pro Million Token (0,40 US-Dollar für gecachte Token) sowie 64 US-Dollar pro Million Token im Output. Damit bleiben die Preise gegenüber dem Vorgängermodell unverändert. Für europäische Entwickler relevant: Die Realtime API unterstützt EU Data Residency, sodass Anfragen und Antworten in der EU verarbeitet und nicht auf OpenAIs Servern gespeichert werden – allerdings mit einem Vorbehalt: Das Tracing, also die Nachverfolgung von API-Aufrufen zu Debugging-Zwecken, ist derzeit noch nicht EU-Data-Residency-konform.


(mki)



Source link

Weiterlesen

Entwicklung & Code

Atlassian: KI-Agenten übernehmen die Routinearbeit


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Atlassian hat auf seiner Hauskonferenz Team ’26 mehrere neue Funktionen vorgestellt, die KI-Agenten stärker in die tägliche Zusammenarbeit von Anwendern einbinden sollen. Im Mittelpunkt stehen der Ausbau des Teamwork Graph als unternehmensweite Kontextschicht sowie die Weiterentwicklung der KI-Plattform Rovo. Deren Agenten sollen Aufgaben künftig nicht nur unterstützen, sondern eigenständig planen und ausführen.

Weiterlesen nach der Anzeige

Atlassian entwickelt Werkzeuge für Zusammenarbeit und Softwareentwicklung. Hierzu zählen Jira, Confluence und Loom. Alle diese Tools sollen Aufgaben, Wissen und Kommunikation in Teams zusammenführen.

Eine zentrale Rolle spielt der Teamwork Graph. Er bildet Beziehungen zwischen Aufgaben, Dokumenten, Personen und Systemen ab und liefert KI-Agenten den nötigen Kontext. Neu ist, dass dieser Kontext nicht mehr nur innerhalb der Atlassian-Produkte zur Verfügung steht. Über ein neues Kommandozeilentool – das sich aktuell in einer Open Beta befindet – greifen Entwickler direkt im Terminal auf den Graph zu. Zusätzlich stellt Atlassian Schnittstellen über das Model Context Protocol (MCP) bereit, sodass auch externe Agenten und Copiloten die Daten nutzen können. KI-Systeme können damit Zusammenhänge wie Verantwortlichkeiten, Abhängigkeiten oder frühere Entscheidungen einbeziehen, statt isolierte Abfragen zu beantworten. Ein Agent kann so zum Beispiel ermitteln, welche Incidents mit einem bestimmten Deployment zusammenhängen und wer für deren Behebung zuständig ist.

Parallel baut Atlassian Rovo – ein KI-gestütztes Such- und Wissensermittlungstool – aus und entwickelt es von einem reinen Assistenzwerkzeug zu einem Tool für agentisches Arbeiten weiter. KI-Agenten sollen komplexe, mehrstufige Aufgaben eigenständig zerlegen, planen und ausführen. Der bereits angekündigte Reasoning-Modus „Max“ in Rovo Chat soll künftig solche Abläufe über mehrere Werkzeuge hinweg orchestrieren. Ein Beispiel für den Praxiseinsatz wäre ein Quartalsbericht, für den ein Agent Daten aus verschiedenen Quellen zusammenführt, aufbereitet und fehlende Informationen kennzeichnet.

KI-Agenten rücken zudem näher an bestehende Arbeitsabläufe. In Jira lassen sich Aufgaben nun gezielt an Agenten zuweisen (genannt Agents in Jira, bereits allgemein verfügbar), die diese eigenständig bearbeiten oder vorbereiten. In Confluence überführt die Funktion Remix Inhalte in andere Formate wie Präsentationen oder Diagramme, ohne dass Anwender die Umgebung verlassen müssen. Loom wandelt Videoanleitungen in strukturierte Aufgaben um, die sich beispielsweise als Jira-Tickets weiterverarbeiten lassen. Punktuelle KI-Abfragen sollen damit einer dauerhaft eingebetteten Automatisierung weichen.

Mit Rovo Studio bietet Atlassian zudem eine No-Code-Plattform, auf der Anwender eigene Agenten, Automatisierungen und Anwendungen erstellen. Sie setzt auf dem Teamwork Graph auf und richtet sich ausdrücklich nicht nur an Entwickler. Workflows lassen sich ereignisbasiert definieren und mit Funktionen wie Rollenmodellen, Freigaben und Versionierung absichern. Ein Beispiel wäre ein Onboarding-Prozess, bei dem ein Agent automatisch Konten anlegt, Dokumente bereitstellt und Aufgaben verteilt, sobald ein neuer Mitarbeiter im System erfasst ist.

Weiterlesen nach der Anzeige

Speziell für Softwareentwickler erweitert Atlassian sein Angebot im Bereich Developer Experience (DX). Neue Funktionen wie „Agent Experience“, „AI Code Insights“ und „AI Pulse“ sollen Transparenz über den KI-Einsatz im Entwicklungsprozess schaffen. Damit lässt sich nachvollziehen, welcher Anteil des Codes von KI stammt, wie Agenten in Workflows eingebunden sind und wie sich das auf Produktivität und Qualität auswirkt.

Mit der Product Collection kündigt Atlassian außerdem eine neue Produktreihe für das Produktmanagement an. Sie erweitert bestehende Werkzeuge wie Jira Product Discovery und soll den gesamten Prozess von der Sammlung von Kundenfeedback über die Priorisierung bis zur Umsetzung und Erfolgsmessung abdecken.

Neu sind zudem die Dia Reports, wobei es sich um browserbasierte Briefings handelt, die Informationen aus dem Teamwork Graph mit Daten aus typischen Arbeitswerkzeugen wie Kalendern oder Kommunikationsplattformen verbinden. So entstehen etwa automatisch generierte Tageszusammenfassungen, die offene Aufgaben, relevante Diskussionen und anstehende Termine bündeln.

Mehr Details zu allen neuen Funktionen finden sich im Atlassian-Blog.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Beliebt