Entwicklung & Code
GitHub: TypeScript wird immer beliebter, Java hingegen fällt ab
Während sich seit Monaten an der Spitze nicht viel getan hat, steigt TypeScript im aktuellen GitHub Innovation Graph für Q1 auf Platz 3 und verdrängt die Shell-Skripte von dort. In die andere Richtung geht es hingegen für Java, das von Platz 5 auf 6 fällt und von Dockerfiles abgelöst wird.
Die ersten beiden Plätze sind stabil seit Q1 2020 in der Hand von JavaScript und Python. Die Shell-Skripte liefen seit jeher auf dem dritten Platz – bis jetzt. TypeScript hat sich über die Jahre von Platz 11 nun auf 3 hochgerobbt. Java fand sich bis Q2 2023 auf Platz 4, rutsche dann auf 5 und jetzt auf 6.
Groovy ist in Q1 komplett aus dem Rennen der Top 50 gefallen, Awk wieder hineingetreten, denn es hatte im letzten Q4 gefehlt.
EU weiter an der Spitze
Bei der Aufschlüsselung nach Wirtschaftsräumen liegt die EU klar vor den USA und baut den Vorsprung weiter aus. Es folgen Indien, Brasilien und ganz knapp dahinter Deutschland (im Bild die violettfarbene Linie). Die meistgenutzte Lizenz ist die MIT, gefolgt von der Apache 2, den anderen Lizenzen, der GPL 3 und der AGPL 3. Bei den Topics, also den Themen, unter die die Maintainer ein Projekt einordnen, liegt react vor hacktoberfest und docker.
Deutschland (hier violett hervorgehoben) liegt beim Vergleich der Wirtschaftsräume knapp hinter Brasilien und Indien.
(Bild: GitHub)
Im vierteljährlichen Innovation Graph wertet GitHub die Pushes der Mitglieder in öffentlichen Repositories aus. Private Verzeichnisse gehen also nicht in die Wertung ein und auch keine Informationen von außerhalb von GitHub. Die Daten (als CSV) und der Code zur Auswertung sind Open Source und Interessenten laden sie aus dem entsprechenden Repository.
Lesen Sie auch
(who)
Entwicklung & Code
Coding mit Python: Über 80 Prozent nutzen ChatGPT
Die Ergebnisse des achten „Python Developers Survey“ sind erschienen. Hinter der jährlich durchgeführten Umfrage stehen die Python Software Foundation und das Entwicklungsteam der Python-IDE JetBrains PyCharm. Sie konnten in dieser Ausgabe weltweit die Antworten von über 25.000 Python-Entwicklerinnen und -Entwicklern einholen. Es zeigt sich ein deutlicher Trend zur KI-Nutzung beim Coding: Über 80 Prozent nutzen ChatGPT und etwa halb so viele GitHub Copilot.
KI-Coding liegt im Trend
Die Studienmacher fragten nach KI-Tools, die die Teilnehmenden für Coding oder andere entwicklungsrelevante Tätigkeiten eingesetzt oder ausprobiert haben. Die überwiegende Mehrheit – 82 Prozent – hat bereits ChatGPT von OpenAI genutzt. Dahinter folgen GitHub Copilot mit 39 Prozent und Google Gemini mit 23 Prozent. Unter den seltener genannten Antworten finden sich unter anderem der JetBrains AI Assistant und benutzerdefinierte, lokale KI-Tools.
ChatGPT an erster Stelle: Das OpenAI-Sprachmodell haben bereits 82 Prozent der Befragten zum Coding genutzt.
(Bild: Python Software Foundation/JetBrains PyCharm)
Die beliebtesten Editoren und IDEs: VS Code und PyCharm
Bei den Entwicklungsumgebungen und Editoren, die die Befragten als Hauptwerkzeug einsetzen, landet Visual Studio Code auf Platz 1. An zweiter Stelle folgt die Entwicklungsumgebung JetBrains PyCharm, die ein Viertel der Befragten von sich überzeugen kann. Danach geht es bereits in den einstelligen Prozentbereich, denn als Haupteditoren nutzen lediglich vier Prozent Neovim oder Jupyter Notebook, und drei Prozent Vim.
(Bild: Golden Sikorka/Shutterstock)
Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.
Python kommt dabei für vielfältige Zwecke zum Einsatz: an erster Stelle zur Datenanalyse, aber auch häufig für Webentwicklung, Machine Learning, Data Engineering und in der akademischen Forschung. Seltenere Zwecke sind beispielsweise Netzwerkprogrammierung, Spieleentwicklung und Mobile-Entwicklung. Im Zeitverlauf zeigt sich, dass die Nutzung für Machine Learning seit der letzten Umfrage deutlich zugenommen hat – von 34 auf 41 Prozent (Mehrfachantworten möglich). Im unteren Bereich kann MLOps einen kleinen Anstieg von acht auf zehn Prozent verzeichnen.
Die Programmiersprache Python kommt für ein breites Spektrum an Anwendungsgebieten zum Einsatz.
(Bild: Python Software Foundation/JetBrains PyCharm)
Python im Beruf und privat
Wie schon im Vorjahr nutzen rund 50 Prozent der Teilnehmenden Python sowohl beruflich als auch privat. 28 Prozent verwenden Python ausschließlich für persönliche, Bildungs- oder Nebenprojekte, und nur 20 Prozent setzen Python ausschließlich auf der Arbeit ein.
Dabei arbeiten die meisten Befragten (66 Prozent) beruflich als Entwicklerinnen und Entwickler, und ein Großteil (59 Prozent) ist bei einem Unternehmen in Vollzeit angestellt.
Methodik und Daten
Der „Python Developers Survey 2024“ basiert auf Antworten, die zwischen Oktober und November 2024 über die offiziellen Kanäle der Python Software Foundation eingegangen sind. Nach dem Herausfiltern ungeeigneter und doppelter Antworten blieben 25.000 gültige Antworten. Teilgenommen haben Personen aus zahlreichen Ländern, vor allem aus den USA (14 Prozent), Indien (11 Prozent) und Deutschland (6 Prozent).
Grafisch aufbereitet sind die Ergebnisse auf der JetBrains-Website zu finden. Die anonymisierten Rohdaten stehen online zur Verfügung, ebenso wie die der früheren Umfragen.
(mai)
Entwicklung & Code
Software Testing: IT-Quereinstieg meistern – von einer Botschaft zur Testerin
Quereinstieg in den Bereich Software Testing? Isabelle Chariot berichtet in dieser Folge von Richard Seidls Podcast Software Testing über ihren Weg in dieses Berufsfeld. Ursprünglich war sie in der Online-Kommunikation tätig, aber beschloss, nach ihrer Arbeit in einer Botschaft neue Wege zu gehen.
Im Gespräch beleuchtet Isabelle Chariot, wie sie in der Testing-Welt Fuß fasste und welche Herausforderungen sie auf diesem Weg meistern musste.
„Also grundsätzlich muss man schon einen gewissen Mut zur Veränderung mitbringen. […] wenn man neugierig ist und ein bisschen Lust hat, sich da mit dem Zeug auseinanderzusetzen, gibt es keinen Grund, sich zu fürchten.“ – Isabelle Chariot
Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.
Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „New Kid on the Software Testing Block – Isabelle Chariot“ und steht auf YouTube bereit.
(mdo)
Entwicklung & Code
KI-Überblick 1: Was hinter dem Begriff „Künstliche Intelligenz“ wirklich steckt
Kaum ein Begriff wird derzeit so häufig verwendet wie „Künstliche Intelligenz“. Ob in Nachrichten, Marketingbroschüren oder Strategiepapieren – „KI“ soll Unternehmen effizienter, Produkte smarter und ganze Branchen zukunftsfähig machen. Allerdings bleibt oft unklar, was damit konkret gemeint ist. Viele Personen verbinden den Begriff mit futuristischen Vorstellungen von Maschinen, die denken oder gar fühlen können. In der Realität beschreibt „Künstliche Intelligenz“ jedoch ein breites Spektrum an Verfahren und Technologien, die weit weniger mystisch sind.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Diese neunteilige Blogserie widmet sich unterschiedlichen Aspekten von KI. Im ersten Beitrag möchte ich den Begriff KI systematisch aufdröseln, seine Entwicklung nachzeichnen und eine erste Einordnung geben, die die Grundlage für die weiteren Folgen der Serie bildet.
KI, ML, DL – was bedeutet das eigentlich?
Wenn von „KI“ gesprochen wird, ist häufig eine ganze Familie von Verfahren gemeint. Die gebräuchlichsten Abkürzungen sind dabei:
- KI (Künstliche Intelligenz) ist ein Oberbegriff, der alle Ansätze umfasst, Maschinen so zu gestalten, dass sie Aufgaben übernehmen können, die gemeinhin als „intelligent“ gelten. Dazu zählen etwa Sprache verstehen, Probleme lösen, lernen und planen.
- ML (Machine Learning) ist ein Teilbereich der KI, der sich darauf fokussiert, dass Maschinen auf Basis von Daten Muster erkennen und daraus Vorhersagen oder Entscheidungen ableiten.
- DL (Deep Learning) ist wiederum ein Teilbereich des Machine Learning, der komplexe neuronale Netze verwendet, um besonders tiefgehende Muster in Daten zu erkennen.
Maschinelles Lernen und Deep Learning sind also Unterkategorien der Künstlichen Intelligenz. In vielen Diskussionen werden diese Begriffe jedoch unscharf verwendet, was Missverständnisse begünstigt.
Von Expertensystemen zu lernenden Maschinen
Historisch begann die Forschung an Künstlicher Intelligenz nicht mit maschinellem Lernen, sondern mit sogenannten symbolischen Ansätzen. In den 1950er- und 1960er-Jahren entstanden Programme, die Wissen in Form von Regeln und Fakten speicherten. Daraus entwickelten sich später Expertensysteme, die etwa in der medizinischen Diagnose oder technischen Fehleranalyse eingesetzt wurden. Diese Systeme arbeiteten mit klar formulierten Wenn-Dann-Regeln. Ihr Vorteil war, dass ihre Entscheidungen transparent und nachvollziehbar waren. Ihr Nachteil bestand darin, dass sie nicht selbstständig lernen konnten und bei unvollständigem oder unscharfem Wissen schnell an ihre Grenzen stießen.
In den 1980er- und 1990er-Jahren rückte deshalb das maschinelle Lernen stärker in den Vordergrund. Statt einer Maschine explizit zu sagen, wie sie zu entscheiden hat, begann man, ihr Daten zu geben, aus denen sie selbst Regeln ableiten konnte. Damit wurden Systeme möglich, die flexibler auf neue Situationen reagieren konnten.
Ein einfaches Beispiel ist die Spam-Erkennung in E-Mails. Während ein Expertensystem vielleicht nur nach festen Schlüsselwörtern sucht, lernt ein Spam-Filter auf Basis vieler Beispiele von Spam- und Nicht-Spam-Nachrichten, typische Muster zu erkennen. Das erlaubt es, auch neue Formen von Spam zu identifizieren, ohne dass jemand manuell Regeln dafür hinterlegen muss.
Warum „Künstliche Intelligenz“ oft in die Irre führt
Der Begriff „Künstliche Intelligenz“ weckt häufig leicht falsche Assoziationen. Menschen neigen dazu, Maschinen Eigenschaften zuzuschreiben, die diese gar nicht besitzen. Ein Chatbot, der in flüssigen Sätzen antwortet, wirkt schnell so, als „wüsste“ er etwas. Tatsächlich basiert er jedoch lediglich auf komplexen statistischen Modellen, die aus unzähligen Beispielen gelernt haben, welche Wortfolgen wahrscheinlich aufeinanderfolgen.
Auch Programme, die Brettspiele meistern oder Bilder erkennen, verfügen nicht über ein Verständnis im menschlichen Sinne. Sie optimieren ihre Entscheidungen auf der Basis von Mustern in den Daten, ohne dass sie deren Bedeutung begreifen. Daher sprechen manche Fachleute lieber von „statistischer Mustererkennung“ statt von Intelligenz. Das mag sperrig klingen, trifft jedoch den Kern wesentlich besser.
Warum der Hype trotzdem berechtigt ist
Trotz dieser Einschränkungen hat Künstliche Intelligenz in den vergangenen Jahren beeindruckende Fortschritte gemacht. Rechnerische Ressourcen, größere Datenmengen und neue Algorithmen haben dazu geführt, dass Maschinen heute Aufgaben bewältigen können, die vor wenigen Jahren noch als Domäne des Menschen galten. Sprachmodelle wie GPT-4 formulieren Texte, Bildgeneratoren erschaffen fotorealistische Szenen und Algorithmen analysieren in Sekunden medizinische Aufnahmen.
Diese Erfolge beruhen jedoch nicht auf Magie, sondern auf systematischen Verfahren. Wenn Sie verstehen, was hinter Begriffen wie „Machine Learning“ und „Deep Learning“ steckt, können Sie besser einschätzen, was KI-Systeme tatsächlich leisten können – und wo ihre Grenzen liegen. Genau das soll diese Serie leisten.
Wohin die Reise geht
In den folgenden Beiträgen werden wir die verschiedenen Teilgebiete schrittweise vertiefen. Wir werden uns ansehen, wie Maschinen lernen, was neuronale Netze auszeichnet und warum Deep Learning „deep“ ist. Zudem werden wir beleuchten, wie Transformer-Architekturen die Sprachverarbeitung revolutioniert haben und was Large Language Models von früheren Ansätzen unterscheidet.
Das Ziel ist, dass Sie am Ende dieser Serie nicht nur einzelne Schlagworte einordnen können, sondern ein Gesamtverständnis dafür entwickeln, wie die verschiedenen Konzepte zusammenhängen. Damit können Sie fundierter entscheiden, ob und wie Künstliche Intelligenz für Ihre Projekte oder Ihr Unternehmen sinnvoll sein könnte.
Ergänzend zu dieser Serie seien an dieser Stelle die Blogposts von Michael Stal über den Aufbau von Neuronalen Netzen empfohlen.
(rme)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen