Entwicklung & Code
Wie motiviere ich meinen Boss?
Die Frage „Wie motiviere ich meine Mitarbeiter?“ wurde mir unzählige Male von Vorgesetzten gestellt. Überraschenderweise ist mir die Frage „Wie motiviere ich meinen Boss?“ nie begegnet. Da der Begriff nicht einheitlich verwendet wird, sei kurz erwähnt, dass ich unter Boss jede Person mit Führungsverantwortung für einen Bereich verstehe.
Weiterlesen nach der Anzeige
(Bild: Stefan Mintert )
Stefan Mintert arbeitet mit seinen Kunden daran, die Unternehmenskultur in der Softwareentwicklung zu verbessern. Das derzeit größte Potenzial sieht er in der Leadership; unabhängig von einer Hierarchieebene.
Die Aufgabe, dieses Potenzial zu heben, hat er sich nach einem beruflichen Weg mit einigen Kurswechseln gegeben. Ursprünglich aus der Informatik kommend, mit mehreren Jahren Consulting-Erfahrung, hatte er zunächst eine eigene Softwareentwicklungsfirma gegründet. Dabei stellte er fest, dass Führung gelernt sein will und gute Vorbilder selten sind.
Es zeichnete sich ab, dass der größte Unterstützungsbedarf bei seinen Kunden in der Softwareentwicklung nicht im Produzieren von Code liegt, sondern in der Führung. So war es für ihn klar, wohin die Reise mit seiner Firma Kutura geht: Führung verbessern, damit die Menschen, die die Produkte entwickeln, sich selbst entwickeln und wachsen können.
Für Heise schreibt Stefan als langjähriger, freier Mitarbeiter der iX seit 1994.
Sind Vorgesetzte immer motiviert?
Wenn man bedenkt, dass ein Vorgesetzter A selbst Mitarbeiter seines Vorgesetzten B ist, müsste das angebliche Motivationsproblem ja auch für Person A gelten. Also dürfte es aus der Perspektive von B auch bei A mal an Motivation fehlen.
Aber auch aus Sicht eines Teams von Person A zweifle ich den Zustand von „permanenter Motivation“ an. Denn von Teams höre ich nicht selten, dass es ihnen an Führung fehlt. Teammitglieder erkennen sehr wohl Defizite bei Vorgesetzten, nur bringen sie das nie mit Motivation in Verbindung.
Geht es hier eigentlich um Motivation oder um etwas anderes?
Ein Beispiel: Ein Entwickler, mit dem ich gearbeitet habe, hat seinen Bereichsleiter um ein Mitarbeitergespräch gebeten. Es hatte schon lange keines mehr stattgefunden und so hatten sich beim Mitarbeiter einige Themen aufgestaut. Acht Monate, nachdem der Mitarbeiter erstmals um das Gespräch gebeten hatte, hatte es immer noch nicht stattgefunden. Augenscheinlich war der Manager nicht sonderlich motiviert, das Gespräch zu führen. Als ich das Thema bei ihm ansprach, gab er offen zu, dass er sich lieber um technische Fragen kümmere. Es machte den Eindruck, dass alles, was an seiner Position mit Personalführung zu tun hatte, nicht „sein Ding“ war.
Weiterlesen nach der Anzeige
Nun kann man eine solche Situation (mit einigem Recht) grundsätzlich beklagen, das hilft aber nicht weiter und beantwortet die wichtigste Frage nicht: Was soll der Mitarbeiter in dem Fall tun?
Im Allgemeinen rate ich dazu, herauszubekommen, was den Vorgesetzten interessiert; anders gesagt, was ihn motiviert. Möchte er bei seinem eigenen Vorgesetzten gut dastehen? Möchte er sich um bestimmte Themen möglichst wenig kümmern? Möchte er, dass die Aufgaben, die man erledigt, möglichst geräuschlos und im Zeitplan erledigt werden? Und so weiter.
Im zweiten Schritt geht es darum, das eigene Anliegen mit der vermuteten Motivation des Vorgesetzten in Verbindung zu bringen.
Unterschiedliche Strategien
Im obigen Beispiel des Vorgesetzten, der „seine Ruhe“ haben möchte, gibt es verschiedene Strategien – von entgegenkommend bis konfrontativ. Entgegenkommend wäre es zum Beispiel, die Planung des Gesprächs in die eigene Hand zu nehmen, eine Agenda mit den eigenen Themen aufzustellen und das alles in einen Kalendereintrag zu schreiben. Wenn man im Kalender die freien Slots des Vorgesetzten sehen kann, wählt man einen Termin und lädt ihn ein.
Konfrontativ wäre der Ansatz, seinen Boss in allen anderen stattfindenden Meetings an den Gesprächswunsch zu erinnern. Also auch in Besprechungen, in denen das Thema nichts zu suchen hat. Irgendwann – so die Hoffnung – hat man genug genervt und bekommt einen Termin. Ob diese konfrontative Ansprache eine gute Idee ist, dürfte sehr stark vom persönlichen Verhältnis zum Vorgesetzten abhängen. Und es ist wichtig, den richtigen Ton zu treffen. Keinesfalls sollte man das eigentliche Thema des Meetings behindern. Wenn aber der Vorgesetzte zum Abschluss eher floskelhaft fragt: „Sind wir durch oder habt Ihr noch ein Thema?“ kann eine beiläufige Erwähnung der Art „Wir wollten ja noch unser Mitarbeitergespräch führen. Wann passt es denn?“ funktionieren.
Ein dritter Weg, den ich sehr erfolgreich anwenden konnte, besteht darin, für die Themen, die der Vorgesetzte bearbeiten soll, eigene Tickets im Teamboard (sic!) zu schreiben. Das funktioniert besonders gut, wenn sich die Führungskraft als Teil des Teams sieht. Falls man es irgendwie rechtfertigen kann, dass diese Tickets als Blocker für andere Arbeiten des Teams herhalten können, steht das Team früher oder später still, wenn der Chef nicht liefert.
Bei Teams, die ihre Arbeit mit Metriken beobachten, kann so eine Vorgehensweise die Auswertungen ziemlich verschlechtern. Bleiben die fraglichen Tickets lange unbearbeitet, erhöht sich die Cycle Time. Im obigen Beispiel wäre das Ticket „Mitarbeitergespräch führen“ mindestens 8 Monate alt geworden. Das ist in den Umgebungen, die ich kenne, eine sehr schlechte Cycle Time. Falls das ein KPI ist, der im Unternehmen sichtbar gemacht wird, möchte der Vorgesetzte bestimmt nicht, dass dieser Sachverhalt an die große Glocke gehängt wird. Bei diesem Weg macht man sich also die Motivation zunutze, dass der Vorgesetzte Wert auf sein Ansehen in der Firma legt.
Letztlich läuft es in all diesen Fällen darauf hinaus, im Falle eines (unmotiviert wirkenden) Vorgesetzten, die Führung im jeweiligen Einzelfall selbst zu übernehmen.
Erst lesen, dann hören
Nach dem Schreiben des Artikels ist die Idee entstanden, die Frage „Wie motiviere ich meinen Boss?“ im Gespräch mit Führungskräften zu diskutieren. Die Gespräche finden live und online und – bei entsprechender Nachfrage – regelmäßig statt. Die Anmeldung ist kostenlos.
(rme)
Entwicklung & Code
PHPUnit 13: Neue Array-Assertions und strengere Mock-Prüfungen
Mit PHPUnit 13 hat Maintainer Sebastian Bergmann eine neue Major-Version des verbreiteten Test-Frameworks für PHP vorgelegt. Das Release bringt funktionale Neuerungen, entfernt länger veraltete APIs und zieht die technischen Anforderungen an. Ziel ist es laut dem Projekt, Tests klarer zu formulieren und Missverständnisse zu reduzieren.
Weiterlesen nach der Anzeige
Aktuelle PHP-Version erforderlich
PHPUnit 13 setzt PHP 8.4 oder neuer voraus und schließt ältere PHP-Versionen aus. Zur Begründung verweist PHPUnit auf den aktuellen Stand der PHP-Entwicklung: Derzeit entwickeln die PHP-Verantwortlichen nur noch PHP 8.4 und 8.5 aktiv weiter.
Gleichzeitig rät PHPUnit zu einem überlegten Upgrade. Der Wechsel auf eine neue Major-Version soll bewusst erfolgen. Wer mit PHPUnit 12.5 noch Deprecation-Warnungen erhält, sollte diese zuerst beheben, bevor ein Umstieg auf Version 13 erfolgt.
Neue Assertions für Arrays
PHPUnit 13 ergänzt das bestehende Angebot um neue Assertions für Arrays. Sie richten sich an Anwendungsfälle, in denen die bisherigen Methoden assertSame() und assertEquals() nicht fein genug zwischen Vergleichsanforderungen unterscheiden.
Die neuen Assertions erlauben es, Array-Vergleiche genauer zu spezifizieren. Dabei lässt sich festlegen, ob Werte strikt inklusive Typen oder lediglich inhaltlich verglichen werden, ob Array-Schlüssel berücksichtigt werden sollen und ob die Reihenfolge der Elemente relevant ist.
Damit stellt PHPUnit zusätzliche Werkzeuge bereit, um bestimmte Vergleichsszenarien expliziter auszudrücken, etwa bei Vergleichen unabhängig von Sortierung oder bei strikt identischen assoziativen Arrays.
Weiterlesen nach der Anzeige
Änderungen bei Mock-Objekten
Bei Mock-Objekten ändert PHPUnit 13 die Prüfung von Übergabeparametern und verabschiedet sich von der Methode withConsecutive(), die bislang dazu diente, unterschiedliche Parameter für aufeinanderfolgende Methodenaufrufe zu prüfen. An ihre Stelle treten zwei spezielle Regeln, mit denen sich Parameterfolgen über mehrere Aufrufe hinweg überprüfen lassen.
Der bisherige Ansatz stieß auf bekannte Grenzen, etwa durch die enge Bindung an eine feste Aufrufreihenfolge und eine zunehmende Unübersichtlichkeit bei komplexeren Szenarien. Gerade seit PHPUnit 10 waren daher häufig zusätzliche Konstruktionen nötig, um entsprechende Aufrufsequenzen abzubilden. Ziel der Neuerung ist es, Erwartungen an Mock-Objekte klarer zu formulieren und die zugehörigen Prüfungen übersichtlicher zu halten.
Versiegelte Test-Doubles als neue Option
Neu hinzugekommen sind sogenannte sealed test doubles. Mit ihnen schließt PHPUnit die Konfiguration von Mock- oder Stub-Objekten bewusst ab. Ein Stub dient dabei als einfacher Platzhalter für eine Abhängigkeit und liefert festgelegte Rückgabewerte, ohne Aufrufe zu überprüfen. Nach dem Aufruf von seal() lassen sich weder weitere Erwartungen noch zusätzliche Methoden definieren. Bei Mock-Objekten sorgt das zudem dafür, dass nicht ausdrücklich erwartete Methodenaufrufe zurückgewiesen werden.
PHPUnit führt diese Funktion als optionale Ergänzung ein. Bestehende Tests bleiben unverändert lauffähig, lassen sich aber gezielt strenger einstellen, wenn unerwartete Interaktionen frühzeitig auffallen sollen.
any()-Matcher kurz vor dem endgültigen Rausschmiss
Der Matcher any() ist in PHPUnit 13 als „hart veraltet“ (hard-deprecated) markiert. Gemäß Ankündigungsbeitrag liegt das daran, dass Mock-Objekte primär zur Überprüfung konkreter Interaktionen gedacht sind. Wer keine Aufrufe verifizieren möchte, soll stattdessen Stubs verwenden.
Support-Zeiträume und Ausblick
PHPUnit 13 wird gemäß Übersichtsplan der Versionen bis Februar 2028 mit Bugfixes versorgt. PHPUnit 12 bleibt noch bis Februar 2027 im Support, ältere Versionen erhalten keine Fehlerkorrekturen mehr.
Für 2026 sind mehrere Minor Releases der 13er-Reihe geplant. PHPUnit 14 ist derzeit für Februar 2027 angekündigt. Nähere Informationen zu PHPUnit 13 finden sich im Ankündigungsbeitrag sowie im Changelog.
(mdo)
Entwicklung & Code
JavaScript: webpack ist unbeliebt – doch wird am häufigsten genutzt
Die neueste Ausgabe der jährlichen Umfrage State of JavaScript präsentiert die Antworten von mehr als 10.000 Entwicklerinnen und Entwicklern weltweit, die ihre beliebtesten sowie am häufigsten genutzten JavaScript-Tools mitteilen. React ist erneut das meistgenutzte Frontend-Framework und Vite wieder das beliebteste Tool insgesamt.
Weiterlesen nach der Anzeige
Das meistgenutzte Tool webpack kann dagegen wenig Begeisterung wecken, denn der Bundler gilt als schwerfällig, mühsam und veraltet – und Vite ist ihm in der Nutzungshäufigkeit eng auf den Fersen. Unter den Texteditoren sticht der neuere KI-Editor Cursor besonders hervor, kann es jedoch nicht mit Visual Studio Code aufnehmen.
(Bild: jaboy/123rf.com)

Tools und Trends in der JavaScript-Welt: Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm dreht sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Frühbuchertickets sind im Online-Ticketshop erhältlich.
Vite sägt rasant an webpacks Thron
Die Studie hat erneut nicht nur nach der Nutzung von JavaScript-Libraries gefragt, sondern auch nach den positiven, negativen oder neutralen Einstellungen, die Entwickler ihnen gegenüber hegen. Die Libraries sind in verschiedene Kategorien gruppiert, darunter Frontend- oder Backend-Frameworks sowie Build-Tools. Gesamtsieger in der Nutzungshäufigkeit ist der Bundler webpack, doch das Build-Tool Vite ist ihm auf Rang 2 eng auf den Fersen und hat in diesem Jahr React überholt.
Ein Blick auf die meistgenutzten Build-Tools zeigt, wie eng dieses Mal das Rennen um den ersten Platz war: webpack nutzen 86,4 Prozent der Teilnehmenden im Jahr 2025, während Vite mit 84,4 Prozent knapp dahinter liegt. Die Betrachtung über die letzten Jahre hinweg zeigt, dass sich die Schere zwischen webpack und Vite immer weiter schließt. In der Umfrage 2023 betrug der Unterschied zwischen den Tools noch 17 Prozent, 2024 nur noch acht Prozent.

Meistgenutzte Build-Tools laut dem State of JavaScript 2025: webpack und Vite belegen – mit großem Abstand zu anderen wie esbuild oder Rollup – die ersten beiden Plätze.
(Bild: State of JavaScript 2025)
Auf der Beliebtheitsskala steht Vite ganz oben: Unter denjenigen, die das Tool bereits verwendet haben, stehen ihm 56 Prozent positiv gegenüber, dagegen nur ein Prozent negativ. In den Freitext-Kommentaren zu Vite überschlagen sich die Lobeshymnen. Es sei einfach zu nutzen, die beste Technologie in seinem Bereich oder gar „die einzige Wahl im Jahr 2025“.
Weiterlesen nach der Anzeige
webpack als veralteter, schwerfälliger Albtraum
Am unbeliebtesten unter seinen Nutzern ist webpack: 37 Prozent der Befragten, die webpack einsetzen, bewerten es negativ. Lediglich 14 Prozent der webpack-User haben dem Tool gegenüber eine positive Einstellung. Die Freitext-Antworten bemängeln unter anderem, webpack sei „schwerfällig und veraltet“, habe „extrem langsame Kompilierungszeiten“ und die Konfiguration sei ein Albtraum. Andere Kommentare loben Vite oder Turbopack als bessere Alternativen.
KI-Coding mit Cursor
Bei den Texteditoren liegt Microsofts Visual Studio Code in der Nutzung mit 84 Prozent weiterhin mit Abstand vorne. Auf dem zweiten Platz landet Cursor: 26 Prozent der Befragten verwenden die KI-gestützte Entwicklungsumgebung, die somit alteingesessene Entwicklungsumgebungen und Editoren wie JetBrains WebStorm oder Vim (jeweils 20 Prozent) verdrängt.

State of JavaScript 2025: Visual Studio Code sichert sich den ersten Platz als meistgenutzter Texteditor.
(Bild: State of JavaScript 2025)
Nach den KI-Tools gefragt, die sie regelmäßig zum Schreiben von Code verwenden, nennen die Teilnehmenden in erster Linie ChatGPT, GitHub Copilot, Claude, Gemini und Cursor. Claude hat dabei einen deutlichen Sprung in der Nutzung vorzuweisen – mit einem Zuwachs um 22 Prozentpunkte im Vergleich zum Vorjahr.
Diese und weitere Ergebnisse der Studie können Interessierte im Detail auf der Website zum State of JavaScript 2025 betrachten. Auch die früheren Ergebnisse der seit 2016 jährlich durchgeführten Umfrage sind auf der Website des Projekts zu finden.
(mai)
Entwicklung & Code
OpenAI Realtime API bietet günstigeres Mini-Modell für Echtzeitkommunikation
Knapp ein Jahr nach der Vorstellung der Developer Preview hat OpenAI im August 2025 die GA-Version (General Availability) der Realtime API veröffentlicht. Die Realtime API ist eine multimodale Schnittstelle, über die Audio- und Textdaten mit sehr geringer Latenz direkt mit einem Sprachmodell ausgetauscht werden können. Der Developer Day im Oktober 2025, einige Monate nach dem GA-Launch, brachte zusätzliche Neuerungen, darunter neue Tools, Preisänderungen und eine kleinere, schnellere Modellvariante.
Weiterlesen nach der Anzeige

Marius Obert baut gerne Prototypen mit den neuesten Cloud-Technologien und spricht noch lieber darüber. Seine Karriere startete in der UI-Entwicklung im sonnigen Kalifornien. Während dieser Zeit lernte er Webtechnologien wie JavaScript im Allgemeinen und das gesamte Node.js-Ökosystem im Speziellen zu lieben.
Mit der GA-Version erweitert OpenAI die Möglichkeiten der Interaktion mit KI-Agenten deutlich. In einem Blogbeitrag stellt das Unternehmen Anwendungsbeispiele von Partnern wie Zillow, T-Mobile, StubHub, Oscar Health und Lemonade vor, die die Vielfalt der Einsatzszenarien verdeutlichen. Die Anwendungsfelder reichen über klassische Sprachdialoge hinaus und ermöglichen sogenannte „hands-free Interaktionen“, bei denen Anwenderinnen und Anwender Text-, Sprach- und visuelle Eingaben flexibel kombinieren können. Die Realtime API ist dabei nicht ausschließlich als Voice-to-Voice-Lösung konzipiert, sondern als multimodales System, das Text, Audio und Bilder gleichermaßen als Eingaben akzeptiert. Sprachinteraktion stellt somit einen ergänzenden Kommunikationskanal neben weiteren Nutzungsformen dar.
Anwendungen werden zunehmend interaktiver und Nutzer erwarten ein unmittelbares, natürliches Reaktionsverhalten. Die Realtime API erfüllt diesen Bedarf, indem sie eine kontinuierliche, bidirektionale Kommunikation mit sehr geringer Latenz ermöglicht – etwa für Sprachassistenz im Kundensupport, automatische Protokollführer im Büro oder Anwendungen, die Live-Visualisierungen und Sprache kombinieren.
Durch den Wegfall traditioneller Zwischenschritte wie separater Speech-to-Text- und Text-to-Speech-Prozesse entsteht ein direktes Modell, das Sprache versteht und beantwortet, ohne spürbare Verzögerung oder Verlust von Nuancen.
Technische Neuerungen im allgemeinen Release
Im Vergleich zur Developer Preview enthält die GA-Version der Realtime API zahlreiche technische Erweiterungen und Verbesserungen in den Bereichen Modellarchitektur, Integration und Nutzbarkeit. Eine zentrale Änderung ist die Einführung einer Mini-Variante des Modells, die kosteneffizientere und schnellere Anwendungen ermöglicht. Die OpenAI-Website zeigt die Unterschiede zwischen gpt-realtime und gpt-realtime-mini.

Wann ist Voice AI in Webanwendungen sinnvoll, und wann nicht? Marius Oberts Vortrag auf dem Online-Thementag enterJS Integrate AI am 28. April 2026. Frühbuchertickets und Gruppenrabatte im Online-Ticketshop.
Die Audioqualität wurde deutlich überarbeitet: Die erzeugte Sprache klingt natürlicher und ausdrucksstärker, mit feineren Betonungen, flüssigeren Pausen und einer besseren Anpassung an Gesprächsverläufe. OpenAI hat hierfür zwei neue Stimmen eingeführt: „Cedar“ und „Marin“.
Weiterlesen nach der Anzeige
Auch die Fähigkeit zur Befolgung komplexer Anweisungen hat der Anbieter verbessert. Das Modell reagiert präziser auf System- und Entwickler-Prompts, und es kann Texte exakt vorlesen, alphanumerische Sequenzen korrekt wiedergeben und fließend zwischen Sprachen wechseln. Benchmark-Tests wie die Big Bench Audio Evaluation weisen eine Steigerung der Genauigkeit (Accuracy) von rund 65 Prozent in der Beta-Version auf über 82 Prozent in der GA-Version aus:

OpenAI Realtime API: Ergebnisse des Benchmarks Big Bench Audio Intelligence
(Bild: OpenAI)
Eine wesentliche Verbesserung betrifft die erweiterten rhetorischen Fähigkeiten des Modells. Die Realtime API kann Gesprächsverläufe nun flüssiger, natürlicher und kontextbewusster gestalten, indem sie Pausen, Betonungen und Gesprächsdynamik besser interpretiert. In diesem Zusammenhang führt OpenAI die Funktion der Conversation Idle Timeouts ein. Erkennt das Modell über einen definierten Zeitraum keine Eingabe, kann es automatisch Folgesätze wie „Sind Sie noch da?“ ausgeben, um den Gesprächsfluss aufrechtzuerhalten und dem Nutzer oder der Nutzerin ein aktives Gespräch zu signalisieren.
Darüber hinaus reagiert das Modell während längerer oder asynchroner Funktionsaufrufe mit Zwischentexten, beispielsweise „Ich warte noch auf das Ergebnis“, um Wartezeiten kommunikativ zu überbrücken und den Dialog lebendig zu halten. Diese Ergänzungen tragen dazu bei, die Interaktion natürlicher und konsistenter zu gestalten – insbesondere in Anwendungsfällen, in denen Echtzeit-Feedback und gesprochene Zwischenausgaben entscheidend für die Nutzererfahrung sind.
Zudem unterstützt die OpenAI Realtime API nun neben WebSocket und WebRTC auch das Session Initiation Protocol (SIP), was die direkte Integration in Telefonie- und Contact-Center-Systeme erleichtert.
Für Entwicklerinnen und Entwickler hat der Anbieter die Strukturen der Ereignis- („Event“-) und Nachrichten-Items überarbeitet, um Debugging und Fehlerbehandlung zu vereinfachen. Dieses Modell verfügt zudem inzwischen über EU-Datenresidenz, um europäischen Datenschutzanforderungen Rechnung zu tragen.
Vorgefertigte Werkzeuge wie Web-Search oder Code Interpreter sind derzeit noch nicht integriert, sodass Anwender sie selbst nachbauen müssen. Über die Implementierung des MCP-Servers (Model Context Protocol) ist es möglich, externe Tools in die Agentenlogik einzubinden. Damit lassen sich die Fähigkeiten eines Agenten relativ einfach erweitern und in bestehende Tools größerer Anwendungen integrieren. Diese Änderungen erhöhen insgesamt die Robustheit, Flexibilität und Praxistauglichkeit der API.
Modellübersicht
Die folgende Tabelle gibt einen Überblick über die wichtigsten Modellparameter und Preisstrukturen von gpt-realtime und gpt-realtime-mini.
| 32.000 | 4.096 | Okt. 2023 | Text, Bild, Audio | Text, Audio | $ 32,00 (Cached: $ 0,40) | $ 64,00 |
| 32.000 | 4.096 | Okt. 2023 | Text, Bild, Audio | Text, Audio | $ 10,00 (Cached: $ 0,30) | $ 20,00 |
Tabelle 1: Vergleich der Kernparameter beider Modelle; Kosten pro Million Token in US-Dollar ($)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
