Künstliche Intelligenz
Deutschland schafft Junior-Stellen ab – wegen KI?
Bereits seit Längerem wird debattiert, wie sich generative KI auf den Arbeitsmarkt auswirkt. Inzwischen rücken dabei die IT-Jobs in den Fokus, vor allem in der Software-Entwicklung. Glaubt man den CEOs der großen Techfirmen, wird immer mehr Code mittels KI generiert. Forscher der Universität Stanford kamen ferner in einer umfassenden Studie zum Ergebnis, dass es im US-Arbeitsmarkt primär die Jobeinsteiger trifft. So sei die Beschäftigung von 22- bis 25-jährigen Software-Entwicklern seit Ende 2022 um ein Fünftel gefallen.
Die iX-Redaktion sprach mit der Arbeitsmarktökonomin Virginia Sondergeld vom Jobportal Indeed über die Lage am IT-Arbeitsmarkt. Das Interview fand per E-Mail statt.
(Bild: Indeed )
Virginia Sondergeld ist Ökonomin im Indeed Hiring Lab und forscht dort zu globalen sowie für den deutschen Markt spezifischen Arbeitsmarkttrends. Zuvor promovierte Virginia in Volkswirtschaftslehre am Deutschen Institut für Wirtschaftsforschung und der Freien Universität Berlin.
Laut einer aktuellen Stanford-Studie zum US-Arbeitsmarkt trifft die Verdrängung durch KI vor allem Einsteigerjobs, insbesondere in der Software-Entwicklung. Sollten junge Leute sich das besser noch mal besser überlegen, eine Karriere als Developer zu starten?
Der Wettbewerb um Einstiegsjobs, gerade im Tech-Bereich, ist in den letzten Jahren deutlich härter geworden. Mehr Konkurrenz sollte junge Menschen nicht grundsätzlich davon abhalten, ihre beruflichen Wünsche oder Leidenschaften zu verfolgen. Sie sollten sich jedoch bewusst sein, dass sich das Berufsbild und Anforderungen an Developer durch die KI-Revolution verändern: weg von einfachen Programmieraufgaben hin zu strategischen Tätigkeiten beim Design einer Softwarearchitektur sowie der Steuerung und Überwachung von KI-Systemen. Wer früh Praxiserfahrungen mit KI-Anwendungen sammelt und sich gezielt weiterbildet, kann sich auch in einem schwierigeren Marktumfeld durchsetzen.
Lässt sich in Deutschland denn eine ähnliche Entwicklung feststellen?
Ja, auch in Deutschland beobachten wir ähnliche Trends. Indeed-Daten zeigen, dass die Zahl der ausgeschriebenen Jobs in der Softwareentwicklung im Vergleich zum Jahr 2020 um rund 37 Prozent gesunken ist. Besonders stark betroffen sind dabei Einstiegsjobs: Junior-Stellen gingen im gleichen Zeitraum um 54 Prozent zurück, während die Zahl der Senior-Positionen nur um 15 Prozent abnahm. Es bedarf jedoch noch weiterer Forschung, um hier konjunkturelle Effekte von denen der KI zu isolieren. So verlief die Entwicklung der Junior- und Senior-Stellen bereits vor der breiten Verfügbarkeit generativer KI unterschiedlich.
In Deutschland klagen die Unternehmen traditionell gerne über den Mangel an IT-Fachkräften. Kann man sich da überhaupt leisten, Nachwuchsjobs zugunsten von KI zu streichen?
Langfristig: nein. Ohne Berufseinsteigerinnen und -einsteiger von heute fehlen die Fach- und Führungskräfte von morgen. Angesichts des demografischen Wandels werden in den nächsten Jahren viele erfahrene Fachkräfte aus dem Arbeitsmarkt ausscheiden. Eine nachhaltige Personalstrategie erfordert, jungen Talenten Einstiegsmöglichkeiten und klare Entwicklungsperspektiven zu bieten. Die zentrale Frage lautet dabei: Wie können Unternehmen Effizienzgewinne durch KI realisieren, ohne dabei den eigenen Nachwuchs aus dem Blick zu verlieren?
Lassen sich am generellen Arbeitsmarkt für ITler seit dem Aufkommen generativer KI Trends erkennen?
Die Zahl der IT-Stellen ist in den vergangenen Jahren insgesamt zurückgegangen, doch gleichzeitig werden KI-Kenntnisse immer stärker nachgefragt: Während am gesamten Arbeitsmarkt aktuell in rund 3 Prozent aller Stellenanzeigen KI-Kompetenzen erwähnt werden, liegt der Anteil in Tech-Berufen deutlich höher: beispielsweise bei 26 Prozent im Bereich Daten und Analytics, 18,2 Prozent in der Softwareentwicklung und 15,7 Prozent im Bereich IT-Anwendungen und -Lösungen. Kompetenzen in der Entwicklung und Anwendung generativer KI sind dabei ein wesentlicher Treiber. Der IT-Arbeitsmarkt ist also geschrumpft, entwickelt sich aber zugleich stark in Richtung KI-Spezialisierung.
Lässt sich bei den verschiedenen IT-Jobs differenzieren, wer stärker und wer weniger von KI betroffen ist?
Für die IT-Branche gilt, was auch in anderen wissensbasierten Berufen zu beobachten ist: Je standardisierter die Tätigkeit, desto eher kann KI sie ersetzen. Je spezialisierter und strategischer ein Job, desto weniger verringert KI derzeit seine Nachfrage am Arbeitsmarkt. Während KI Codezeilen generieren kann, braucht es weiterhin Entwicklerinnen und Entwickler, die die KI anleiten, Ergebnisse überprüfen, Fehler identifizieren und Sicherheitslücken schließen.
Auch Tätigkeiten mit hohem Praxisanteil, etwa die Bereitstellung und Wartung von Hardware, sind weniger automatisierbar. Zudem wächst durch den hohen Rechenbedarf von KI die Bedeutung von IT-System- und Infrastruktur-Spezialisten, die sicherstellen, dass Rechenzentren und Netzwerke zuverlässig und effizient funktionieren. KI übernimmt also nicht nur Jobs, sondern schafft auch neue Chancen am Arbeitsmarkt.
Wie stark macht sich der seit mehreren Jahren laufende Wirtschaftsabschwung am deutschen IT-Arbeitsmarkt bemerkbar? Stärker als KI?
Es ist schwer, die Effekte von Konjunktur und KI klar voneinander zu trennen. Während des Tech-Booms zwischen 2020 und Mitte 2022 wurde massiv in Digitalisierung investiert und viele neue Stellen wurden geschaffen. Seit der Abkühlung im Frühjahr 2022 gehen die Stellenausschreibungen im gesamten Arbeitsmarkt – und besonders im IT-Sektor – deutlich zurück. Dieser Rückgang setzte also bereits vor der breiten Verfügbarkeit generativer KI ein, was darauf hindeutet, dass vor allem der Wirtschaftsabschwung die aktuelle Entwicklung prägt. Mittel- bis langfristig dürfte jedoch die Verbreitung von KI entscheidend dafür sein, ob sich der Arbeitsmarkt für IT-Fachkräfte auch erholt, wenn die Wirtschaft wieder an Fahrt aufnimmt, oder ob bestimmte Tätigkeiten dauerhaft von generativer KI übernommen werden.
Vielen Dank für die Antworten, Frau Sondergeld!
(axk)
Künstliche Intelligenz
SSD im Mac mini M4 aufrüsten: Die Schritt-für-Schritt-Anleitung
In einem eigenen heise+-Beitrag haben wir erklärt, warum es sinnvoll und einfach sein kann, einen Mac mini M4 oder M4 Pro selbst mit SSD-Modulen aufzurüsten, statt Apples Mondpreise zu bezahlen. In diesem Artikel geht es nun darum, wie Sie den Ein- beziehungsweise Umbau praktisch selbst vornehmen können.
Dabei ist glücklicherweise nur relativ wenig Bastelgeschick gefragt. Allerdings sind später weitere Schritte notwendig, Ihren kleinen Mac wieder lauffähig zu machen. Und auch vorher gibt es einiges zu beachten.
Zeit: 30 – 60 Minuten für den Umbau, Zeit für das Backup und die Wiederherstellung
- einen zweiten Mac mit T2-Sicherheitschip oder Apple-Silicon
- Thunderbolt- oder USB-C-Kabel
- externe SSD oder Festplatte für ein Backup
- Time Machine oder Backup-Programm wie Carbon Copy Cloner
- SSD-Modul passend für den Mac mini M4 oder M4 Pro
Werkzeug:
- Schraubendreher (T3, T5, T8)
- Plastikstift (Spudger)
- Plektren oder alte EC-Karten
- ESD-Pinzette
- Magnetunterlage, Schälchen oder Eiswürfelbehälter für Schrauben
- optional: Druckluft
Backup mit Time Machine erstellen
Bevor Sie den Mac mini auseinandernehmen, sollten Sie Ihre Daten sichern. Am bequemsten geht dies mit dem Bordmittel Time Machine: Schließen Sie eine leere externe Festplatte oder SSD an Ihren Mac an, fragt macOS, ob es die Festplatte für Time Machine verwenden darf. Stimmen Sie diesem zu, beginnt wenige Minuten später automatisch das Backup. Das kann je nach Speichermedium und Datenmenge ein paar Stunden in Anspruch nehmen.
Das war die Leseprobe unseres heise-Plus-Artikels „SSD im Mac mini M4 aufrüsten: Die Schritt-für-Schritt-Anleitung“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Ethical Hacking für Fortgeschrittene – sich selbst hacken, bevor es andere tun
Mithilfe von Ethical Hacking nutzen Admins und IT-Sicherheitsverantwortliche die Techniken und Tools potenzieller Angreifer, um besser gegen diese gewappnet zu sein. Unser neuer Classroom Fortgeschrittenes Ethical Hacking – Deep Dive ins Pentesting für Admins gibt Ihnen ein noch tiefergehendes Wissen zur Abwehr an die Hand. Lernen Sie in fünf Sessions „richtig zu hacken“, um potenziellen Angriffen frühzeitig zu begegnen, indem Sie eigene Systeme auf Herz und Nieren prüfen.
Unser Experte Frank Ully widmet sich im Rahmen des Classrooms allen relevanten Bereichen, über die potenzielle Angreifer Zugriff auf Ihre Systeme erhalten können: Das betrifft sowohl externe Umgebungen und die eigene öffentliche IT-Infrastruktur als auch interne Netzwerke mit Fokus auf Active Directory (AD). Aber auch Webanwendungen und Web-Schnittstellen (APIs) stellen potenzielle Einfallstore dar, die Sie aus der Angreiferperspektive kennenlernen. Abschließend stehen auch die öffentlichen Clouds im Fokus, mit Schwerpunkt auf der Microsoft-Cloud (Entra ID, Microsoft 365) sowie Amazon Web Services (AWS).
Praxisbeispiele zum Angriff auf die eigenen Systeme
Für zahlreiche Bereiche zeigt unser Experte, in welcher absichtlich verwundbaren Umgebung Sie kostenfrei oder preiswert hacken und sich weiterbilden können – auch weit über diesen Classroom hinaus. Sie lernen das Ausnutzen von Schwachstellen, Erlangen weiterer Privilegien und Erreichen eines Ziels, etwa Ransomware im gesamten Netzwerk auszurollen.
Mit diesem Wissen sind Admins in der Lage, Angriffe frühzeitig zu erkennen und bereits im Vorhinein zu erschweren. Sie kennen und beherrschen die Tools der Hacker und können dieses Wissen gegen potenzielle Angreifer anwenden. Die Termine sind:
- 10.11.25: Fortgeschrittenes Pentesting und OSINT für proaktive IT-Sicherheit
- 17.11.25: Metasploit unter Kali Linux – Command-and-Control- und andere Angriffs-Frameworks für Linux und Windows
- 24.11.25: Windows-Netzwerke angreifen – Dienste im Active Directory und Linux-Systeme proaktiv schützen
- 01.12.25: Schwachstellen in Webanwendungen und Web-APIs nutzen – fortgeschrittene Techniken
- 08.12.25: Unsichere Standardeinstellungen und Fehlkonfigurationen in der Microsoft-Cloud ausnutzen – und AWS weiter härten
Praxis- und Expertenwissen – live und für später
Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmer können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.
Unser Experte für Cybersicherheit und Pentesting, Frank Ully, ist bereits bestens aus unserem Classroom „Ethical Hacking für Admins – Pentesting für eine sichere IT“ bekannt. Thematisch baut unser neuer Classroom auf diesem auf, eine vorherige Teilnahme wird aber nicht vorausgesetzt, sofern Sie bereits Erfahrungen mit Pentesting und Ethical Hacking besitzen. Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
(cbo)
Künstliche Intelligenz
Microsoft kündigt erste eigene KI-Modelle an
Microsofts KI-Abteilung hat am Donnerstag ihre ersten selbst entwickelten KI-Modelle vorgestellt: MAI-Voice-1 AI und MAI-1-Preview. Laut dem US-Unternehmen soll das neue Sprachmodell MAI-Voice-1 mit nur einer GPU in weniger als einer Sekunde eine Minute Audio generieren können. Das Modell MAI-1-Preview soll derweil „einen Einblick in zukünftige Angebote innerhalb von Copilot“ bieten.
„Große Ambitionen für die Zukunft“
Der Softwarekonzern beschreibt MAI-Voice-1 als sein erstes „ausdrucksstarkes und natürliches Sprachgenerierungsmodell“. Es werde bereits in der Funktion „Copilot Daily“ und Podcasts eingesetzt. Microsoft betrachtet die Stimme als „die Schnittstelle der Zukunft für KI-Begleiter“; das KI-Modell MAI-Voice-1 liefere in Szenarien mit einem als auch mit mehreren Sprechern „hochauflösende, ausdrucksstarke Audioqualität“, so das Unternehmen.
Interessierte können das Sprachmodell in Copilot-Labs ausprobieren. Hier können Nutzer eingeben, was die KI sagen soll. Zudem können sie sowohl die Stimme als auch den Sprachstil ändern.
Das zweite KI-Modell MAI-1-Preview steht derweil zum öffentlichen Testen auf der Plattform LMArena bereit. LM Arena ist eine öffentliche, webbasierte Plattform, die große Sprachmodelle (LLMs) durch anonyme, crowdgesourcte paarweise Vergleiche bewertet. MAI-1-Preview ist laut Microsoft das erste „End-to-End-trainierte Basismodell von MAI“, das eigenen Angaben zufolge auf rund 15.000 Nvidia H100-GPUs trainiert wurde. Microsoft sagt, das Modell wurde für Nutzer entwickelt, die ein KI-Modell benötigen, das Anweisungen befolgen und „hilfreiche Antworten auf alltägliche Fragen geben kann“.
Microsoft AI plant die Einführung von MAI-1-Preview für bestimmte Textanwendungsfälle in seinem Copilot-KI-Assistenten. Dieser basiert derzeit auf den großen Sprachmodellen von OpenAI.
„Wir haben große Ambitionen für die Zukunft“, schreibt Microsoft AI in seinem Blogbeitrag. „Wir werden nicht nur weitere Fortschritte in diesem Bereich anstreben, sondern sind auch davon überzeugt, dass die Koordinierung einer Reihe spezialisierter Modelle für unterschiedliche Nutzerabsichten und Anwendungsfälle einen immensen Mehrwert schaffen wird.“
Microsoft und OpenAI: It’s complicated
Die milliardenschwere Partnerschaft zwischen Microsoft und OpenAI ist kompliziert, um es vereinfacht auszudrücken. Denn OpenAI will seine Unternehmensstruktur von einem Non-Profit in ein gewinnorientiertes Unternehmen umwandeln und eigenständiger werden. Durch diese Umstrukturierungen und die damit einhergehenden Veränderungen der Beteiligung von Microsoft an OpenAI soll es Streit geben. Insgesamt hat Microsoft etwa 13 Milliarden US-Dollar in OpenAI investiert – die Frage ist, wie viele Unternehmensanteile sie dafür bei einer Umwandlung bekämen.
Zudem näher OpenAI sich an Softbank an, die zusammen am „Projekt Stargate“ arbeiten. Außerdem denkt OpenAI über den Verzicht von Serverkapazitäten von Microsoft nach. Überdies gehe es auch darum, dass Microsoft nicht auf das geistige Eigentum von OpenAI nach Belieben zugreifen können soll. Mit den ersten eigenen KI-Modellen sieht Microsoft offenbar allmählich zu, sich weniger abhängig von OpenAI zu machen. Der Vertrag zwischen den beiden Unternehmen läuft offiziell 2030 aus.
(afl)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 2 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Social Mediavor 2 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 1 Tag
Adobe Firefly Boards › PAGE online