Connect with us

Künstliche Intelligenz

Jobkiller oder Chance? Wie KI die Arbeitswelt der Entwickler ändert


Glaubt man prominenten Stimmen aus der Techbranche, dann wird zunehmend mehr Code in Unternehmen durch KI generiert. Alphabet-CEO Sundar Pichai spricht von 25 Prozent des neuen Codes, Microsoft-CEO Satya Nadella nennt 20 bis 30 Prozent in Repositories und bestimmten Projekten, Meta-Gründer Mark Zuckerberg erwartet in seinem Unternehmen rund die Hälfte KI-Code im kommenden Jahr. Und Softbank-Chef Masayoshi Son möchte sogar die Ära menschlicher Programmierung beenden. Haben Menschen im Entwicklerjob etwa bald ausgedient? Darüber sprach die iX-Redaktion mit dem Arbeitsmarktforscher Enzo Weber.




(Bild: 

Michael Bode

)

Prof. Dr. Enzo Weber ist Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“ am Institut für Arbeitsmarktforschung der Bundesagentur für Arbeit und Inhaber des Lehrstuhls für Empirische Wirtschaftsforschung an der Universität Regensburg.

iX: Derzeit überschlagen sich Techkonzerne wie Microsoft, Salesforce oder Softbank mit Verlautbarungen, wie viel Code die generative KI im Unternehmen bereits erzeugt. Müssen sich Entwickler wegen Jobverlust durch KI Sorgen machen?

Weber: Wenn man abgleicht, welche Tätigkeiten zu Berufen gehören und welche Möglichkeiten heute KI-Technologie hat, dann zählt Standardprogrammierung tatsächlich zu den Tätigkeiten, die in ziemlich großem Umfang bereits ersetzbar sind. Dazu gibt es zum Beispiel vom IAB eine Studie zum Automatisierungspotential beruflicher Tätigkeiten. Die nennt für das Feld der Informations- und Kommunikationstechnologien – also breiter gefasst als nur Entwickler – einen Wert bei 56 Prozent. Das sollte man aber nicht verabsolutieren. Einerseits werden am Ende aus verschiedensten Gründen nie sämtliche Automatisierungspotenziale auch realisiert. Und andererseits schreitet die Technologie gleichzeitig weiter voran.

Sich Sorgen machen zu müssen, ist trotzdem noch mal etwas anderes. Ersetzt wird ohne Zweifel ziemlich viel von dem, was man in der Vergangenheit in diesen Jobs gemacht hat. Der entscheidende Punkt ist aber, was man in der Zukunft macht.

Also wird sich der Entwicklerjob generell dann einfach stärker verändern, aber die Menschen nicht unbedingt ihren Job verlieren?

Die Veränderung der Jobs ist in der Tat das Entscheidende. Wir sitzen im Moment da, staunen über die Entwicklung der Technologie und sehen, dass sie vieles von dem, was wir bisher gemacht haben, jetzt auch kann. Uns selbst scheinen wir aber irgendwie ziemlich wenig Entwicklungsfähigkeit zuzutrauen. Aber das ist doch eigentlich die große Chance: Die Technologie ist ja nicht die Einzige, die sich weiterentwickeln kann – Menschen können das auch, bei sich und ihrer Arbeit und ihren Kompetenzen.

Mir kann kein Entwickler erzählen, dass er seinen Beruf gewählt hat, weil er total heiß darauf war, massenweise Standardcode runterzuschrubben. KI bietet auch einfach die Möglichkeit, in Zukunft in einem Berufe das zu machen, wofür man ihn eigentlich mal ergriffen hat. Das gilt nicht nur bei Entwicklern, denn KI kann wirklich quer durch alle Berufe Anwendung finden.

Wird dann die Ersetzung oder die Ergänzung menschlicher Arbeit durch KI vorherrschen?

Ich würde in substanziellem Umfang von einer Ersetzung menschlicher Arbeit ausgehen, wie wir sie auch aus der Vergangenheit kennen. Wenn das nicht so wäre, würde es ja betriebswirtschaftlich überhaupt keinen Sinn ergeben, solche Technologien einzusetzen. Aber wir sollten nicht denken, dass menschliche Arbeit im Jahr 2025 sozusagen das Optimum erreicht hat und jetzt kommt eine Technologie, und die stört dieses Optimum. Wir sind auf einem bestimmten Entwicklungsstand und da geht auch noch mehr.

Es gibt zwei Seiten: Etwas von dem, was bisher da war, wird ersetzt. Auf der anderen Seite werden dadurch aber Kapazitäten von schlauen Menschen frei, die sich weiterentwickeln und neue Arbeiten übernehmen können. Menschen, die am Ende auch mit der KI zusammenarbeiten, indem sie das bewerten, kontrollieren, sich überlegen, wie man KI einsetzen kann, aber auch ganz neue Geschäftsmodelle und Tätigkeiten entwickeln. Das ist ja nicht das, was KI macht. Echte Kreativität – das machen immer noch Menschen. Das heißt also nicht, dass in Zukunft weniger Jobs da sein werden.

Bewerten, kontrollieren, kreative Federführung – das klingt vor allem nach erfahrenen Entwicklern. Haben dann die Berufsanfänger, die mit leicht automatisierbaren Routineaufgaben in den Job finden, am meisten unter dem KI-Hype zu leiden?

Dazu gibt es im Moment eine große Diskussion, vor allem in den USA. Es gibt Argumente in beide Richtungen. Also ja, Erfahrungswissen ist etwas, das man erst später hat und das einen sicherlich in höherwertige Tätigkeiten bringt. Auf der anderen Seite haben die jungen Leute natürlich auch einen frischen Blick. Die sind nicht geprägt durch eine Zeit, in der es keine KI gab. Wer da reingewachsen ist, kann auch ganz neu ganz anders starten.

Aber nur weil man schon in Jugendzeiten KI-Apps auf dem Smartphone benutzt hat, hat man deswegen nicht die konzeptionelle Kompetenz. Dafür braucht man mehr, und deswegen brauchen wir auch wirklich Bildungskonzepte und nicht einfach nur die Behauptung „Das sind doch alles digital Natives, die machen das schon“.

US-Techkonzerne setzen derzeit massenweise Personal frei und brüsten sich, wie KI ihre Entwicklerteams ersetzt. Werden da nicht auch Entlassungen als Innovation verbrämt?

Da ist natürlich schon eine signifikante Entwicklung im Tech-Sektor zu sehen. Das gab es ja früher auch schon, erinnern Sie sich mal an die New-Economy-Blase, die Anfang der Zweitausender dann geplatzt ist. Allerdings war die Wirtschaft nach der Energiekrise ohnehin im Abschwung und es kamen weitere äußere Faktoren dazu, die negativ wirkten. Die Dämpfung des Arbeitsmarkts ist also sicherlich nicht im Wesentlichen auf KI zurückzuführen. Außerdem ist es kein beliebtes Argument, Entlassungen damit anzukündigen, dass Technologie die Menschen ersetzt. In den USA geht das vielleicht noch eher als in Deutschland. Aber hier kann man so etwas überhaupt nicht bringen.

Wie sieht es denn auf dem deutschen Arbeitsmarkt aus? Hat der KI-Hype da bislang erkennbare Auswirkungen gezeigt?

In Deutschland haben wir jetzt seit drei Jahren schlicht Wirtschaftsabschwung, und das ist der wichtigste Grund dafür, dass die Beschäftigung abgeflacht ist. Es gibt aber bestimmte Bereiche, wo wir seit dem starken Aufkommen der generativen KI schon klare Effekte gesehen haben. Vor allem ist das auf Plattformen der Fall, wo Aufträge vergeben werden für Jobs wie Übersetzungsleistungen, Textarbeiten, grafische Gestaltung und durchaus auch Programmierarbeiten. Da war auch kurzfristig schon erkennbar, dass die Auftragslage deutlich zurückging.

Herr Weber, vielen Dank für das Gespräch!


(axk)



Source link

Künstliche Intelligenz

CLC-Konferenz 2025: Keynote zu Souveränität und digitaler Resilienz


Das Programm der CLC 2025 spiegelt jene Themen wider, mit denen sich Platform Engineers, DevOps-Teams sowie Softwareentwicklerinnen und -entwickler aktuell beschäftigen: KI-Integration, Plattform-Skalierung, Security-Automatisierung und Developer Experience. Wer verstehen will, wohin sich die Branche entwickelt und wie sich diese Entwicklungen praktisch umsetzen lassen, findet auf der CLC-Konferenz vom 18. bis 20. November 2025 in Mannheim die richtigen Antworten – in vielen deutsch- und englischsprachigen Talks, Workshops, Panels und zwei Keynotes.


Kurt Garloff

Kurt Garloff

Kurt Garloff (S7n Cloud Services)

In seiner Keynote unter dem Titel „Digitale Resilienz oder Digitale Kolonie?“ wirft Kurt Garloff, leidenschaftlicher Open-Source-Befürworter und Kopf der Sovereign Cloud Stack-(SCS)-Bewegung, einen kritischen Blick hinter die Fassade moderner IT. Angesichts einer Vielzahl an Anwendungsbausteinen und vorkonfigurierter Plattformdienste gelingt Entwicklerinnen und Entwicklern auch der Bau hochkomplexer Softwaresysteme immer leichter und schneller. Spätestens im laufenden Betrieb zeigen sich dann aber auch die Schattenseiten: hohe Kosten für Managed Services, eingeschränkte Flexibilität, problematischer Datenschutz – und vor allem zahlreiche Abhängigkeiten, angesichts derer die Gesellschaft für Informatik von Europa sogar als einer digitalen Kolonie spricht.

Kurt Garloff geht daher den Fragen nach, wie man souveräne Alternativen gestalten kann, welche es bereits gibt, und wie man sie systematisch abwägen kann. Er schließt mit einem Ausblick darauf, wie man Abhängigkeiten bereits bei Architektur- und Implementierungsentscheidungen frühzeitig erkennen und deren Folgen einschätzen kann, um drohende Risiken gezielt anzugehen – oder bestenfalls auch weitgehend zu vermeiden.

Über die Themenschwerpunkte Developer Experience (DX) und Platform Engineering hinaus widmet sich das CLC-Programm in diesem Jahr auch Continuous Delivery, Observability und Security, die zu den Grundpfeilern moderner Softwareprojekte zählen. Unter anderem liefert Johannes Koch (FICO) Antworten auf die Frage „Why Do We Need Observability for CI/CD Pipelines?„, die in Zeiten verteilter Systeme mehr Relevanz denn je hat. Dominik Schmidle (Giant Swarm) zeigt, wie sich Observability-Plattformen für große Umgebungen skalieren lassen. Matej Gera (E.ON) nimmt die aktuellen Möglichkeiten von eBPF im Monitoring unter die Lupe und vergleicht sie mit klassischen Ansätzen.

Security zieht sich durch viele weitere Sessions, etwa wenn Marius Shekow (SprintEins) die Wahl sicherer Container-Images bespricht oder Dominik Guhr (INNOQ) die Unterschiede und Einsatzmöglichkeiten der Autorisierung mit RBAC, ABAC, PBAC und ReBAC erklärt. Prerit Munjal (InfraOne) zeigt, wie sich die Software Supply Chain mit GUAC (Graph for Understanding Artifact Composition) und GraphQL absichern lässt.

Weitere Highlights aus dem Programm:

Das von iX und dpunkt.verlag organisierte Event bietet damit IT-Fachleuten wie Senior-Softwareentwicklern, Softwarearchitekten, DevOps Engineers, Platform Engineers, Infrastructure/Cloud Engineers, Team- und Projektleitern sowie Administratoren die Gelegenheit, ihr Wissen zu vertiefen und sich mit Gleichgesinnten auszutauschen.


Eindrücke von der Konferenz CLC 2024

Eindrücke von der Konferenz CLC 2024

Noch bis zum 2. Oktober kostet das Konferenzticket mit Frühbucherrabatt nur 1149 Euro (alle Preise zzgl. MwSt.), für das Kombiticket aus Konferenz und 1-Tages-Workshop fallen 1699 Euro an. Die ganztägigen Workshops lassen sich einzeln zum Preis von 649 Euro buchen. Teams oder Gruppen ab drei Personen erhalten im Ticketshop zudem automatisch mindestens 10 Prozent Rabatt.

Wer über den Fortgang der CLC auf dem Laufenden bleiben möchte, kann sich auf der Website der CLC 2025 für den Newsletter registrieren, oder auch den Veranstaltern auf LinkedIn folgen – der aktuelle Hashtag lautet #CLC_Conf.


(map)



Source link

Weiterlesen

Künstliche Intelligenz

Brettspiele in Virtual Reality: All on Board kündigt neue Lizenztitel an


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

„All on Board“ setzt seit dem Start im Februar 2025 auf eine realitätsnahe Umsetzung klassischer Brettspiele in der Virtual Reality. Bislang finden sich beliebte Titel wie „Rallyman GT“, „Terraforming Mars“, „The Binding of Isaac: Four Souls“, „Istanbul“ oder Klassiker wie Schach und Dame in der Bibliothek. Nun folgen weitere bekannte Lizenztitel.

Mit dem Update 1.1 erweitert das spanische Entwicklerstudio The Game Kitchen seine VR-Brettspielplattform um das kostenpflichtige Zusatzspiel „Aye, Dark Overlord!“ sowie neue soziale Funktionen. Ziel sei es, das virtuelle Brettspielerlebnis auf Meta Quest und SteamVR stärker zu personalisieren und zugänglicher zu machen.

In „Aye, Dark Overlord!“ schlüpfen Brettspielfans in die Rolle untergebener Schurken, die sich mit viel Improvisation und absurden Ausreden vor ihrem finsteren Meister rechtfertigen müssen. Der Fokus liegt auf spontaner Erzählung, Rollenspiel und Gruppendynamik. Das mehrfach ausgezeichnete Kartenspiel ist erstmals 2005 erschienen und hat sich seitdem eine treue Fangemeinde aufgebaut.

Neben dem neuen Brettspiel führt Version 1.1 auch ein Lernzentrum ein, das Spielern den Einstieg in die komplexen Regeln der Brettspiele erleichtern soll. Auch die Organisation gemeinsamer Spielabende wird vereinfacht: Über Discord und Telegram lassen sich künftig Sessions im Voraus planen, inklusive Matchmaking-Funktion für Mitspielende.

The Game Kitchen hat auch erstmals eine Roadmap mit detailliertem Ausblick auf weitere Inhalte und Systemupdates veröffentlicht. Bis zum Frühjahr 2026 sollen insgesamt drei neue Brettspiele erscheinen. Bereits angekündigt sind „Hamlet: The Village Building Game“ als weiteres kostenpflichtiges DLC im Herbst und „Port Royale“ im Winter. Auch mehrere Software-Updates und neue kostenlose Kartendecks sollen folgen.

„All on Board“ richtet sich klar an Brettspielenthusiasten. Wie bei physischen Brettspielen sind die Spieler selbst für die Einhaltung der Regeln verantwortlich. Damit unterscheidet sich der Titel klar von herkömmlichen digitalen Brettspieladaptionen. „Wir haben ein paar Automatismen eingebaut, die logisch sind, um das Spielerlebnis angenehmer zu gestalten. Aber es bleibt größtenteils ein echtes Brettspielerlebnis, mit allem, was dazu gehört“, erklärt Senior Producer Hicham Saoud Silva.

Wir haben uns bereits selbst an den virtuellen Brettspieltisch gesetzt und können bestätigen, dass das Spielgefühl stets authentisch bleibt. Auch die Vorlagen hat The Game Kitchen mit viel Liebe zum Detail umgesetzt. Kein Wunder, denn Studio-Chef Mauricio García hat sich mit dem VR-Brettspielsimulator ein Herzensprojekt erfüllt.

„Virtual Reality ist wie geschaffen für Brettspiele. Man kann eine immersive Umgebung erschaffen und ausladende Brettspiele an Orten mit wenig Platz spielen. Vor allem kann man mit Freunden spielen, die gerade nicht da sein können“, schwärmt García.

„All on Board“ ist für SteamVR und Meta Quest erhältlich und kostet in der Basisversion 10 Euro. Add-ons gibt es ab 6 Euro. In Mehrspielerrunden muss allerdings nur der Host das jeweilige Brettspiel besitzen. Alle anderen dürfen kostenlos mitspielen. Wir empfehlen die Version für Meta Quest 3, da die Brettspiele hier auch im Mixed-Reality-Modus direkt auf dem Wohnzimmertisch platziert werden können.


(joe)



Source link

Weiterlesen

Künstliche Intelligenz

Linux: Debian 13 kommt als Trixie


Am Samstag wollen die Debian-Entwickler das nächste Release der Linux-Distribution veröffentlichen. Wie üblich holt Debian mit der Aktualisierung auf Version 13 „Trixie“ im Hinblick auf die enthaltenen Software-Versionen auf. Bei Upgrades auf die neue Distribution sind dieses Mal wenig Überraschungen zu erwarten. Voraussetzung ist, dass vor dem Umstieg auf Trixie die letzten Updates des Vorgängers Debian 12 „Bookworm“ installiert sind.

Die Unterstützung für i386 als reguläre Debian-Plattform entfällt. Es gibt weder Kernel noch einen Installer für die 32-Bit-x86-Welt. Eine abgespeckte Auswahl an i386-Paketen ist allerdings weiterhin erhältlich für Chroot-Umgebungen und Multiarch-Installationen, die auf einer 64-Bit-Installation 32-Bit-Code ausführen können.

Eine größere Umstellung betrifft temporäre Dateien. Das /tmp-Verzeichnis wird zukünftig als tmpfs-Dateisystem angebunden, die Dateien landen also im Hauptspeicher. Sollten große Dateien dort angelegt werden, kann so der Hauptspeicher ausgehen. Standardmäßig knappst Debian maximal 50 Prozent des Hauptspeichers ab. Das in anderen Distributionen übliche automatische Löschen älterer, temporärer Dateien müssen Debianer in Trixie nach einem Upgrade erst aktivieren; in Neuinstallationen ist es aktiv: Dateien in /tmp werden nach 10 Tagen, Dateien in /var/tmp nach 30 Tagen gelöscht.

Bei einigen Paketen warnen die Entwickler vor Problemen, die nach Upgrades eventuell auftreten: OpenSSH lässt sich auch mit Konfigurationsoptionen nicht mehr überrumpeln, DSA-Verbindungen aufzubauen; mit openssh-client-ssh1 gibt es ein spezielles Paket, mit dem das für den Zugriff auf Altgeräte aber noch möglich ist. MariaDB-Nutzer sollen vor dem Upgrade sicherstellen, dass die Datenbanken in einem konsistenten Zustand sind. Betreiber eines Dovecot-E-Mail-Servers müssen sich auf ein neues Konfigurationsformat durch den Wechsel von Version 2.3 auf 2.4 einstellen.

Einige Standardprogramme aus dem util-linux-Paket wie etwa „last“ zur Anzeige der letzten Logins entfallen, weil die Originale nicht Jahr-2038-fest sind – sie reservieren nicht hinreichend Speicher, um Datumsangaben jenseits dieser Grenze zu verarbeiten. Ping läuft jetzt ohne root-Rechte. Bei einigen Programmen haben sich Änderungen bei der Verteilung auf Pakete ergeben, so etwa bei Samba und libvirt.

Wer dm-crypt und nicht LUKS verwendet, um Geräte zu verschlüsseln, muss eventuell die Konfiguration vervollständigen, weil Trixie andere Standardverfahren nutzt und so danebengreift. Für das automatische Mounten von verschlüsselten Platten ist jetzt systemd-cryptsetup zuständig – das Paket sollte mit systemd mitinstalliert sein. In jedem Fall lohnt ein Blick in die Release-Notes.


(vbr)



Source link

Weiterlesen

Beliebt